Aktuelle Events
Digitale Zettelwirtschaft: Gefahren durch Tool-Hoarding
Warum Unternehmen die Gefahren des sog. Tool-Hoardings nicht unterschätzen sollten und wie sie dem Problem effizient und effektiv vorbeugen können.
In einer zunehmend digitalisierten Geschäftswelt ist der Einsatz spezialisierter Software zu einer Selbstverständlichkeit geworden. Für nahezu jede betriebliche Aufgabe gibt es mittlerweile ein passendes Tool, das verspricht, die Effizienz und Produktivität zu steigern. Dabei kann jedoch die Ansammlung von zu vielen verschiedenen Anwendungen, das sogenannte Tool-Hoarding, Risiken mit sich bringen, die häufig übersehen werden. Diese digitale Zettelwirtschaft führt nicht nur zu Ineffizienz und höheren Kosten, sondern kann auch die Datenqualität und -sicherheit gefährden. Ein bewusster Umgang mit Tools und eine kluge Integration sind daher notwendig, um die eigentlichen Ziele der Digitalisierung – nämlich Prozessoptimierung und Effizienzsteigerung – zu erreichen. Doch was ist zu tun, um die Gefahren des Tool-Hoardings nicht zu unterschätzen bzw. dem Phänomen vorzubeugen?
Das Phänomen des Tool-Hoardings
Unter Tool-Hoarding versteht man die unkontrollierte Ansammlung verschiedener spezialisierter Softwarelösungen, die oft ohne eine ganzheitliche Strategie implementiert werden. In vielen Fällen beginnt das Phänomen dabei unauffällig und schleichend: Ein Unternehmen führt ein Tool für die Buchhaltung ein, ein weiteres für die Projektverwaltung, dann ein separates System für das Kundenmanagement und schließlich eine Lösung für die interne Kommunikation. Jedes dieser Tools ist für sich genommen sinnvoll, erfüllt eine spezifische Aufgabe und soll Arbeitsprozesse vereinfachen. Doch wenn immer mehr spezialisierte Anwendungen hinzugefügt werden, ohne dass sie effizient miteinander integriert sind, entstehen unerwartete Herausforderungen.
Die Gründe für das Entstehen von Tool-Hoarding sind dabei vielschichtig. Allem voran steht häufig jedoch der Wunsch, für jede Herausforderung das „beste“ oder „modernste“ Tool zu verwenden. Unternehmen möchten ihre Mitarbeitenden mit den neuesten technischen Lösungen unterstützen, in der Hoffnung, dass diese den Arbeitsalltag vereinfachen und die Produktivität erhöhen. Doch oft wird dabei übersehen, dass zu viele separate Systeme am Ende eher das Gegenteil bewirken können oder es fehlt generell an der kompletten Übersicht. Die Verwaltung einer Vielzahl von Tools kann dann sogar zur Belastung werden, insbesondere wenn die Systeme nicht miteinander kommunizieren oder Daten manuell übertragen werden müssen. Ein weiteres Problem ist die fragmentierte Datenhaltung, die zu Fehlern und Inkonsistenzen führt. Im schlimmsten Fall hat dann die zuerst gut gemeinte Anschaffung sogar einen gegenteiligen Effekt: Denn je mehr Tools ein Unternehmen im Einsatz hat, desto geringer ist die Wahrscheinlichkeit, dass sie tatsächlich genutzt werden.
Die versteckten Kosten des Tool-Hoardings
Neben der offensichtlichen organisatorischen Komplexität birgt Tool-Hoarding auch finanzielle Risiken, die oft nicht sofort ersichtlich sind. Denn jede Softwarelösung bringt nicht nur Lizenzkosten mit sich, sondern erfordert auch regelmäßige Wartung, Updates und Schulungen für die Mitarbeitenden. Diese Kosten summieren sich schnell, insbesondere in Unternehmen, die für unterschiedliche Aufgaben verschiedene Tools einsetzen.
Darüber hinaus können versteckte Kosten entstehen, die auf den ersten Blick nicht offensichtlich sind. Beispielsweise wird der Zeitaufwand für die Pflege mehrerer Systeme oft unterschätzt. Mitarbeitende müssen sich in jedes Tool einarbeiten, Daten zwischen verschiedenen Anwendungen synchronisieren und bei Problemen den IT-Support kontaktieren. Dies führt zu einem erheblichen administrativen Aufwand und Unkosten, die den eigentlichen Nutzen der Tools schnell übersteigen kann.
Sicherheits- und Datenschutzrisiken
Neben den organisatorischen und finanziellen Aspekten bringt Tool-Hoarding auch Sicherheitsrisiken mit sich. Je mehr Tools ein Unternehmen verwendet, desto größer ist die Angriffsfläche für Cyberkriminelle. Insbesondere in Branchen, in denen mit sensiblen Daten gearbeitet wird, wie im Personalwesen oder im Finanzsektor, stellt dies ein erhebliches Risiko dar. Jedes zusätzliche Tool bedeutet ein weiteres Einfallstor für potenzielle Angriffe. Unzureichende Passwortsicherheit, veraltete Softwareversionen oder mangelhafte Zugangskontrollen können dann dazu führen, dass sensible Daten ungeschützt bleiben.
Ein weiteres Sicherheitsproblem entsteht wiederum durch die Fragmentierung der Daten. Wenn verschiedene Tools nicht optimal integriert sind, besteht die Gefahr, dass wichtige Informationen in unterschiedlichen Systemen gespeichert werden, ohne dass diese ausreichend gesichert oder synchronisiert sind. Dies kann nicht nur zu Datenverlusten führen, sondern auch die Einhaltung von Datenschutzbestimmungen erschweren. Insbesondere in Zeiten strengerer Datenschutzgesetze, wie der DSGVO, ist es für Unternehmen von entscheidender Bedeutung, den Überblick über ihre Daten zu behalten und sicherzustellen, dass diese jederzeit geschützt sind.
HR-Software als Beispiel für die Auswirkungen von Tool-Hoarding: Fluch oder Segen?
Ein besonders anschauliches Beispiel für das Problem bietet aktuell in vielen Firmen der HR-Bereich. Viele Unternehmen setzen insbesondere hier noch auf verschiedene Einzellösungen für Recruiting, Personalverwaltung, Schichtplanung, Zeiterfassung und Lohnabrechnung. Während jedes dieser Tools für sich genommen seine Funktion erfüllt, führt die parallele Nutzung oft zu den bereits genannten Herausforderungen. Beispielsweise müssen Personalabteilungen Daten manuell in verschiedene Systeme eingeben, da diese nicht ausreichend miteinander vernetzt sind. Das Ergebnis: Zeitverschwendung, höhere Fehleranfälligkeit und Frustration bei den Mitarbeitenden. HR-Verantwortliche tun also gut daran, sich vor der schlussendlichen Auswahl eines Tools einige Fragen zu stellen und vorhandene System zu hinterfragen: Werden die Daten der Zeiterfassung nahtlos in die Lohnabrechnungssoftware übertragen? Werden Urlaubs- und Krankheitsanfragen in der Schichtplanung berücksichtigt?
Gerade für Unternehmen, deren Mitarbeitende nicht klassisch am Schreibtisch zu finden sind, stellt zudem die Mobilfähigkeit der genutzten Software ein absolutes Muss dar. Denn oftmals haben Mitarbeitende in diesen Branchen nur über mobile Endgeräte wie Smartphones Zugang zu den Tools, sodass nicht mobil-optimierte Anwendungen schlichtweg nicht genutzt werden. Die Folge: Die erhoffte Effizienzsteigerung durch die Einführung der digitalen Lösungen bleibt ganz einfach aus.
Der Weg aus der Tool-Harding-Falle: Integration und Automatisierung
Unternehmen sollten demnach ihre Softwarelandschaft regelmäßig überprüfen und rationalisieren, um den negativen Auswirkungen des Tool-Hoardings zu entgehen. Anstatt für jede Aufgabe ein separates Tool zu verwenden, ist es oft sinnvoller, eine integrierte Lösung zu wählen, die mehrere Funktionen abdeckt. Dies reduziert nicht nur die Anzahl der verwendeten Tools, sondern erleichtert auch die Datenverwaltung und sorgt für eine einheitliche Benutzererfahrung.
Sind wiederum schon Tools vorhanden, auf die es aufzubauen gilt, ist dann wiederum ein zentraler Punkt die Integration neuer Lösungen in die vorhandenen Systeme. Eine nahtlose Datenübertragung zwischen den Tools und eine zentrale Verwaltung der Informationen sind entscheidend, um den administrativen Aufwand zu minimieren und gleichzeitig die Datensicherheit zu erhöhen. Unternehmen, die auf integrierte Plattformen setzen, profitieren von einem besseren Überblick über ihre Prozesse und können schneller auf Veränderungen reagieren. Generell gilt jedoch: Wenn zwei Tools durch eines ersetzt werden könnten, lohnt es sich oft, diese Möglichkeit zu prüfen.
Schlussendlich spielt dann auch die Automatisierung von Prozessen eine immer größere Rolle bei der Reduzierung des Tool-Hoardings. Mithilfe von künstlicher Intelligenz (KI) können Routineaufgaben wie die Dateneingabe oder die Verwaltung von Benutzerzugängen automatisiert werden, sodass weniger manuelle Eingriffe erforderlich sind. Dies entlastet nicht nur die Mitarbeitenden, sondern verringert auch die Notwendigkeit zusätzlicher Tools.
Fazit: Klasse statt Masse
Tool-Hoarding ist eine der unterschätzten Herausforderungen der digitalen Transformation. Unternehmen, die eine Vielzahl spezialisierter Softwarelösungen anhäufen, riskieren, dass die vermeintliche Effizienzsteigerung durch diese Tools in einem unübersichtlichen, ineffizienten Softwaredschungel verpufft. Um diesem Problem entgegenzuwirken, ist es wichtig, die eingesetzten Tools regelmäßig zu evaluieren und sicherzustellen, dass diese optimal integriert sind. Weniger ist hier oft mehr: Eine konsolidierte Softwarelandschaft, die alle wichtigen Funktionen abdeckt, sorgt dann nicht nur für eine bessere Übersicht, sondern senkt auch die Kosten und erhöht die Sicherheit. Unternehmen, die also frühzeitig auf integrierte, benutzerfreundliche Plattformen setzen, können die Effizienz ihrer Prozesse nachhaltig steigern und die Gefahren des Tool-Hoardings vermeiden. Denn letztendlich geht es bei der Digitalisierung nicht darum, möglichst viele Tools zu verwenden, sondern eben die richtigen.
Der Autor David Padilla ist Gründer und CEO von Kenjo, Anbieter einer HR-Software für Arbeitskräfte bzw. Mitarbeitende in Unternehmen, die nicht an einen Schreibtisch gebunden sind und New Work effizient praktizieren wollen.
Gründer*in der Woche: Herita Technologies – Supply Chain Financing neu gestaltet
Das Berliner FinTech Herita Technologies wurde 2025 von Christoph Iwaniez, Benjamin Jones und Felix Kollmar mit der gemeinsamen Mission gegründet, globale Handelsfinanzierung zu vereinfachen, Abhängigkeiten zu reduzieren und nachhaltiges Wachstum in allen Branchen zu fördern. Mehr dazu im Interview mit dem Co-Founder & CEO Christoph Iwaniez.
Wer sind die Köpfe hinter Herita Technologies und was hat euch 2025 angetrieben, Herita zu gründen?
Wir sind zu dritt gestartet: Felix, Ben und ich. Felix hat ein Industry-Tech-Unternehmen erfolgreich aufgebaut und verkauft – er kennt den deutschen Mittelstand und die Herausforderungen aus der ersten Reihe. Mit seinem Netzwerk und seiner Erfahrung bringt er uns erfolgreich in den Markt. Ben und ich haben schon einmal gemeinsam ein FinTech aufgebaut. Er war CTO bei Bitwala und hat mich damals als Late Co-Founder ins Team geholt. Diesmal war ich derjenige, der ihn überzeugt hat, wieder gemeinsam etwas aufzubauen – und er baut jetzt die gesamte technische Plattform.
Welches primäre Geschäftsmodell verfolgt ihr mit Herita?
Die Lücke zwischen geforderten Zahlungszielen und Liquiditätsbedarf von Lieferanten wächst – und niemand löst sie wirklich gut. Factoring erreicht nur wenige große Lieferanten, und klassische SCF-Programme der großen Banken sind schwerfällig und teuer. Und da kommt die unternehmerische Opportunität ins Spiel.
Seit 2024 kann der Handelswechsel vollständig digital abgebildet werden. Damit wird ein jahrhundertealtes, rechtlich starkes Instrument plötzlich global skalierbar – ohne Papier, ohne Unterschriftenchaos, ohne Bankabhängigkeit. Darauf baut Herita auf. Wir kombinieren diese neue rechtliche Opportunität mit einer modernen Plattform. Unsere Technologie hilft Unternehmen, ihren Lieferanten und Kapitalgebern viel effizienter Supply Chain Financing abzuwickeln. Unser Modell ist einfach: Wir helfen Lieferketten zu finanzieren – aber ohne die Hürden und Einschränkungen traditioneller Bankprodukte.
Welche Meilensteine habt ihr bislang erreicht?
Wir haben vor wenigen Wochen den ersten vollständig digitalen Handelswechsel über unsere Plattform ausgestellt, übertragen und refinanziert – echte Transaktion, echtes Geld, korrekt verbucht in allen Systemen. Jetzt erweitern wir die Plattform so, dass Unternehmen ihre gesamten Lieferantenprogramme damit steuern können – von der Ausstellung bis zur Refinanzierung.
Nochmals auf den Punkt gebracht: Welche konkreten Probleme löst ihr für eure Kund*innen besser als bestehende Lösungen bzw. was unterscheidet euch heute von Wettbewerber*innen im FinTech-Sektor?
Wir lösen ein ganz akutes Problem in internationalen Lieferketten: Unsere Kunden wollen ihr working capital optimieren und verlängern zunehmend Zahlungsziele im Einkauf. Aber ihre Lieferanten brauchen Liquidität, viele davon sind zu klein oder in Ländern ansässig, in denen es keinen Zugang zu klassischen SCF-Programmen gibt.
Herita macht zwei Dinge besser:
1. Unsere Technologie ermöglicht Zugang zu Finanzierung für Unternehmen und ihre Lieferanten, die Banken gar nicht erst erreichen.
2. Wir ermöglichen Programme, die international funktionieren, auch dort, wo traditionelle Anbieter nicht aktiv sind.
Kurz gesagt: Wir bringen Kapital dorthin, wo es gebraucht wird – effizient, rechtssicher, global und ohne die hohen Transaktionskosten klassischer Lösungen.
Wie habt ihr die Startphase finanziell gestemmt?
Am Anfang vor allem durch das, was Gründer am meisten investieren: Zeit, Passion für eine innovative Lösung und persönlichen Einsatz.
Dann haben wir eine erste kleine Runde mit Angel-Investoren und frühen VCs aufgenommen, die an unsere These glauben und uns über reines Kapital hinaus mit Netzwerken und Know-how unterstützen.
Ihr habt im letzten Jahr an der renommierten EY Startup Academy teilgenommen. Was war eure Motivation, wie hast du das sechswöchige Programm erlebt und was hat es euch letztlich gebracht?
Für uns war das EY-Programm eine riesige Chance, uns mit Experten aus vielen Bereichen auszutauschen. Umgekehrt konnten wir mit diesen Sparringspartnern unser Produkt auf den Prüfstand stellen. Optimalerweise treffen wir bei den EY-Kollegen auf entsprechende Resonanz für mögliche gemeinsame Initiativen, weil Working Capital, Risiko und Supply Chains überall auf der Agenda stehen.
Am Ende der Academy konntet ihr euch beim großen Pitch-Finale gegen zehn Mitstreiter*innen durchsetzen und den EY Startup Academy Award 2025 gewinnen. Was bedeutet euch diese Auszeichnung?
Für uns war der Pitch das eigentliche Ziel. Wir mussten uns selbst hinterfragen, unser Produkt schärfen und den besten Weg finden, unser Geschäftsmodell in wenigen Minuten klar auf den Punkt zu bringen. Dass wir nun eine Bestätigung haben, dass wir eine ansprechende und ganz konsistente Vorstellung von Herita abrufen können, hilft uns in jedem anstehenden Gespräch mit Kunden und potenziellen Investoren.
Was sind eure weiteren unternehmerischen Vorhaben?
Wir wollen jetzt unsere ersten Top-Kollegen an Bord holen und Herita breiter aufstellen. Gleichzeitig stehen die ersten Kunden schon bereit – jetzt geht es darum, sauber zu liefern und den Erwartungen an unseren Mehrwert gerecht zu werden.
Und last, but not least: Was rätst du anderen Gründer*innen aus eigener Start-up-Erfahrung.
Stärkt eure Resilienz. Gründen ist kein Sprint, sondern ein Weg mit vielen Hindernissen, Rückschlägen und Momenten der Unsicherheit. Wer das aushält und immer weiter geht, kann unglaublich viel gewinnen: die Chance, etwas Eigenes zu bauen und eine Idee Wirklichkeit werden zu lassen.
Hier geht's zu Herita Technologies
European Dynamism-Report zeigt Europas Tech-Paradoxon
Laut den Autoren des aktuellen „European Dynamism“-Reports bringt Europa mittlerweile gefühlt im Wochentakt neue Unicorns hervor. Doch bei der globalen Skalierung wandert die Wertschöpfung zu oft ab. Die Studie zeigt, in welchen sechs Deeptech-Nischen europäische Start-ups die unangefochtenen Kategorie-Führer von morgen bauen können. StartingUp hat die Ergebnisse analysiert und zeigt, was das für eure Go-to-Market-Strategie bedeutet.
Das europäische Start-up-Ökosystem ist laut dem Report „European Dynamism“ im Auftrag von redalpine deutlich reifer geworden. Die Studienautoren konstatieren, dass neue Unicorns zuletzt gefühlt im Wochentakt entstehen. Zudem schlagen europäische VC-Fonds ihre US-Konkurrenten über lange Zeithorizonte, und das Funding zog 2025 wieder spürbar an. Doch der Report benennt ein neues europäisches Tech-Paradoxon: Der zentrale Engpass liegt heute weniger bei Talent, Forschung oder Finanzierung. Es geht vielmehr um die Frage, wo die Wertschöpfung beim globalen Scaling in der Region gehalten werden kann.
Die Kernthese der Studie: Europas Wettbewerbsvorteil liegt exakt dort, wo Software, Wissenschaft und Industrie eng zusammenkommen. Genau hier entstehen neue Cluster, in denen Deutschland eine sichtbar größere Rolle spielt. Berlin etabliert sich dabei laut Report als Standort für Enterprise AI, während München sich als Deeptech-Knoten über die Bereiche Fusion, Space, Health und Robotics hinweg wiederholt.
Die 6 Felder, in denen Europa global gewinnen kann
Die Deep Dives der Studie decken sechs Sektoren ab , in denen Europa nicht nur gründen, sondern den Wert auch langfristig halten und anführen kann:
- Intelligent Enterprise: Im Bereich Intelligent Enterprise verschiebt sich der Wettbewerb von Foundation Models zu Workflows. Entscheidend ist, ob ein Modell ganze Unternehmensprozesse orchestrieren, verifizieren und tief in Kundenabläufe integrieren kann. Europas Chance liegt laut Report vor allem in Vertical AI und im Orchestrierungs-Layer. Sichtbare Player am Standort Berlin sind hier Start-ups wie n8n und Parloa, während sich das Funding für europäische Enterprise-AI-Startups 2024/25 mehr als verdoppelt hat.
- Digital Health: Digital Health verlässt die Wellness-Ecke und wird zur klinischen Infrastruktur. Der Report beschreibt einen Shift hin zu "medical-grade devices" und spezialisierter AI für konkrete Versorgungsprobleme. Diese reichen von Wearables (wie Oura und Hilo/Aktiia) bis zu Anwendungen (wie Voize und Avelios), die direkt in klinische Abläufe eingreifen. Europas Vorteil liegt hierbei in Validierung, Regulierung und klinischer Alltagstauglichkeit.
- New Energy: Im Energiekapitel setzt der Report vor allem auf die Kernfusion als europäische Souveränitätswette. Das globale Investment in Fusion stieg 2025 laut Report um knapp 500 % auf 3,8 Mrd. Dollar. Europas Trumpf ist dabei laut den Autoren nicht die größte Kapitalmaschine , sondern die ITER/CERN-Erfahrung, die Engineering-Tiefe und komplexe Präzisionsfertigung , exemplarisch gezeigt am deutschen Start-up Proxima Fusion.
- Space: Die Raumfahrt wird im Report bewusst entromantisiert. Der kurzfristige Business Case liegt nicht im Weltraumtourismus, sondern in Erdbeobachtung, Navigation, Konnektivität, Defence und orbitaler Infrastruktur. Das Thema ist damit weniger Sci-Fi als vielmehr Industrie-, Sicherheits- und Infrastrukturpolitik. Getrieben von der Debatte um technologische Souveränität wächst der Druck zum Aufbau eigener Satelliten- und Launch-Infrastrukturen. Europa baut hierfür sichtbare Cluster von Toulouse über München bis Glasgow auf.
- Unlocking Biology: Die Biologie wird laut Report von einer Beobachtungswissenschaft zu einer datengetriebenen Engineering-Disziplin. Große biologische Foundation Models, proprietäre Datensätze und automatisierte Lab-in-the-loop-Setups beschleunigen Design, Test und Iteration. Europas Chance liegt hier laut Report besonders in der Middleware- und Tooling-Schicht zwischen AI-Fähigkeit und therapeutischem Ergebnis.
- Robotics: Robotik ist im Report kein Nischenthema mehr, sondern ein Feld, in dem Europas industrielle DNA zum echten Vorteil werden könnte. Der Markt ist groß und noch längst nicht verteilt, da laut Report noch rund 70 % der Lagerhäuser nicht automatisiert sind. Das Funding für europäische Robotik-Startups lag 2025 bei über 1,6 Mrd. Euro. Europas stärkste Position liegt dabei eher im „Brain Layer“ als im reinen Hardware-Rennen: in Physical AI, Real-World-Daten und Software, die Robotern den Umgang mit wechselnden Umgebungen beibringt.
StartingUp ordnet ein: 5 strategische Hebel für euer Pitch-Deck
Was bedeuten diese Fakten nun konkret für Gründerinnen und Gründer, die gerade an ihrem Produkt bauen oder Kapital suchen? Wir haben aus den Daten des Reports fünf harte strategische Leitplanken für eure Go-to-Market-Strategie abgeleitet:
- Baut den europäischen Burggraben: Pitcht Investoren keinen reinen Software-as-a-Service-Klon aus den USA. Wenn ihr global skalieren wollt, müsst ihr die Stärken des Standorts nutzen. Investoren suchen derzeit gezielt nach Teams, die exzellente Software mit tiefem, hiesigem Industrie- oder Wissenschafts-Know-how verknüpfen.
- Orchestrierung statt Basis-Technologie: Der Versuch, bei Foundation Models mit US-Giganten zu konkurrieren, verbrennt meist nur Ressourcen. Positioniert euer Start-up stattdessen intelligent im Orchestrierungs-Layer. Zeigt, dass ihr das Detailgeschäft beherrscht: das fehlerfreie Integrieren und Verifizieren von KI in tief verwurzelte, bestehende Unternehmens-Workflows.
- Nutzt Regulierung als euren stärksten USP: Viele Gründer fürchten europäische Regularien. Dreht den Spieß um! Wenn euer "medical-grade" Produkt die strengen europäischen Hürden für klinische Alltagstauglichkeit meistert, habt ihr den ultimativen Qualitätsnachweis für den globalen Markt.
- Baut die Schaufeln für den Goldrausch: Ob in Biotech oder Robotik – versucht nicht, den finalen Roboter oder Wirkstoff komplett allein zu bauen. Entwickelt stattdessen die renditestarken Zwischenschichten wie Middleware, Tooling oder den "Brain Layer", also jene Software, die KIs überhaupt erst befähigt, in komplexen Umgebungen zu agieren.
- B2B-Infrastruktur schlägt Sci-Fi-Visionen: VCs finanzieren aktuell keine Luftschlösser. Baut euren Business Case in Bereichen wie Space oder Energy auf knallharter Infrastruktur-, Sicherheits- und Industriepolitik auf. Wer Schlagworte wie "technologische Souveränität" glaubhaft mit einem starken B2B-Produkt untermauern kann, punktet beim Fundraising.
Fazit: Vom Gründen zum Überzeugungstäter
Wie die Studie passend zuspitzt: Europa fehlt nicht der nächste Gründerjahrgang. Europa kann gründen – jetzt muss Europa lernen, mit Überzeugung zu skalieren. Wer heute ein Start-up in den Bereichen Deeptech, AI oder Robotics gründet, muss vom ersten Tag an groß denken. Nur wer die Wertschöpfung und das Ownership konsequent in der eigenen Region hält, macht aus einem starken europäischen Start-up auch einen globalen Kategorie-Führer.
Better Sol: Zweites Leben für die Solarwende
Wie das 2023 von Mirko Laube und Luisa Schulze gegründete Start-up Better Sol den PV-Gebrauchtmarkt aufmischen will.
Das Braunschweiger Start-up Better Sol erhält rund 125.000 Euro Förderung aus dem „Green Startup“-Programm der Deutschen Bundesstiftung Umwelt (DBU), um gebrauchte Solarpaneele in großem Stil zurück in den Markt zu bringen.
Hinter dem Start-up stehen Luisa Schulze und Mirko Laube. Better Sol entstand ursprünglich im Sommer 2022 als Ausgründung des Magdeburger Recycling-Unternehmens Solar Materials und agiert seit 2023 als eigenständige GmbH am Standort Braunschweig. Während sich die ehemalige Muttergesellschaft auf das komplexe werkstoffliche Recycling von Modulen konzentriert, widmet sich Better Sol voll und ganz dem „Second Life“ – also der direkten Wiederverwendung der noch intakten Platten.
KI-gestützte Prüfung statt Schredder
Die Beschaffungsseite von Better Sol zielt primär auf große Solarparks ab. Die Betreiber tauschen dort häufig größere Mengen an Solarmodulen recht früh in ihrem Lebenszyklus durch neuere, leistungsstärkere Modelle aus. Um diese Module vor dem Müll zu bewahren, hat das Better-Sol-Team mittels DBU-Förderung ein in Teilen automatisiertes Testsystem mit eigener Software auf Basis künstlicher Intelligenz (KI) entwickelt.
Der Prüfprozess beginnt mit einer mehrstufigen optischen Untersuchung, bei der sowohl grobe Beschädigungen als auch jede Solarzelle einzeln begutachtet werden. Im Anschluss folgen eine eingehende Prüfung der elektrischen Sicherheit sowie eine Leistungsüberprüfung, die misst, wie viel Watt das Produkt im Vergleich zur ursprünglichen Leistung noch liefert. Die Software führt all diese Daten automatisiert zu einer detaillierten Leistungsprognose zusammen. Jedes funktionstüchtige Modul erhält ein Label mit den Testdaten, einer zugewiesenen Leistungsklasse und einem umfangreichen Prüfprotokoll. Nur der endgültige Rest wird zum Recycling aussortiert. Der Vertrieb erfolgt direkt über die Internetseite von Better Sol. Zielgruppe sind oft Privathaushalte oder die Dächer größerer Fabrikhallen.
Der Markt und die Technologie im Wettbewerbsvergleich
Nach Angaben des Statistischen Bundesamtes verbucht die Photovoltaik mittlerweile einen Anteil von etwa 24 Prozent und ist damit der zweitwichtigste Energieträger der inländischen Stromerzeugung. Das Reservoir an ausgemusterten, aber noch funktionierenden Modulen wächst rasant. Laut Schulze ist im Schnitt jedes zweite gebrauchte Solarmodul noch für eine erneute Nutzung geeignet. Doch der Gebrauchtmarkt professionalisiert sich zusehends.
Better Sol setzt aktuell auf eine pragmatische, KI-gestützte Teilautomatisierung und plant als nächsten logischen Entwicklungsschritt eine mobile Testanlage, um die Solarmodule direkt dort zu testen, wo sie ausgemustert werden. Genau in diesem logistisch entscheidenden Bereich der Vor-Ort-Prüfung operiert bereits der etablierte Wettbewerber 2ndlifesolar, eine Marke der großen Buhck Gruppe. 2ndlifesolar greift auf ein deutschlandweites Logistiknetzwerk zurück und kombiniert stationäre Erstbehandlungsanlagen mit mobilen Prüflaboren. Technologisch geht das Unternehmen tief in die industrielle Qualitätssicherung und führt standardmäßig Elektrolumineszenz-Prüfungen durch, um unsichtbare Mikrorisse im Vorfeld zu detektieren.
Einen völlig anderen, stark hochskalierten Weg bestreitet das österreichische CleanTech-Start-up 2nd Cycle. Das Unternehmen betreibt eine vollautomatische Inspektions- und Upcycling-Anlage im industriellen Hochdurchsatz und nutzt neben klassischer Robotik auch patentierte hyperspektrale Analysen aus der Raumfahrt, um Zellalterungen frühzeitig zu erkennen.
Der Schlüssel zum wirtschaftlichen Erfolg
Das Vorhaben von Better Sol leistet einen fundamentalen Beitrag, um noch leistungsfähige Materialien durch geschickte Kreislaufwirtschaft für eine Weiternutzung zu erhalten, damit die Bemühungen für mehr erneuerbare Energien nicht ins Stocken geraten. Dennoch muss sich das Geschäftsmodell in einem harten Wettbewerb beweisen.
Die Handwerkerkosten für den Aufbau einer PV-Anlage auf einem Eigenheim sind hoch und fallen völlig unabhängig davon an, ob man neue oder gebrauchte Paneele installiert. Gleichzeitig steht der Markt unter enormem Preisdruck durch historisch günstige asiatische Neuware. Wenn fabrikneue Module extrem billiger werden, schwindet das Argument der finanziellen Ersparnis bei Gebrauchtmodulen mit kürzerer Restlebensdauer. Der Schlüssel zum wirtschaftlichen Erfolg von Better Sol liegt daher in der rigorosen Minimierung der eigenen Logistik- und Prozesskosten. Die geplante mobile Testanlage und die zusätzliche Automatisierung des Testsystems sind für das Start-up essenziell, um künftig auch größere Ausmusterungen von Solarparks wirtschaftlich bewältigen zu können.
Der Milliarden-Coup: Wie Neura Robotics zur globalen KI-Macht aufsteigen will
Nach unserer Coverstory über Gründer David Reger und der 120-Millionen-Euro-Finanzierung im Januar 2025, zündet das Metzinger Robotik-Start-up Neura Robotics nun offenbar die nächste Stufe. Mit einer kolportierten Bewertung von 4 Milliarden Euro und dem Krypto-Giganten Tether als Investor greift das Unternehmen im globalen Haifischbecken der Humanoiden nach der Marktführerschaft.
Es war absehbar, dass die 120 Millionen Euro aus der Series-B-Runde nur das Warm-up waren. Laut übereinstimmenden Medienberichten (unter anderem von Bloomberg und der Financial Times) steht Neura Robotics vor dem Abschluss einer gigantischen Finanzierungsrunde in Höhe von rund 1 Milliarde Euro (ca. 1,2 Milliarden US-Dollar). Damit würde sich die Unternehmensbewertung auf etwa 4 Milliarden Euro katapultieren. Neura stiege somit endgültig in die absolute Top-Liga der europäischen Tech-Einhörner auf. Das Unternehmen selbst wollte die Berichte auf Nachfrage bislang nicht kommentieren.
Krypto-Milliarden für DeepTech: Der Tether-Faktor
Was diesen Deal in der Tech-Welt so einzigartig macht, ist die Herkunft des Kapitals. Angeführt wird die Runde laut den Berichten von der Tether Holdings SA, dem Emittenten des weltweit größten Stablecoins. Das ist kein Zufall, sondern Teil einer strategischen Neuausrichtung: Tether nutzt seine enormen Krypto-Gewinne (allein in den ersten drei Quartalen 2025 über 10 Milliarden Dollar), um ein „Real-World“-Portfolio aufzubauen – von KI-Rechenzentren über Energie bis hin zu zukunftsweisender Robotik. Für Neura würde das den Zugang zu einem extrem liquiden Investor bedeuten, der bereit ist, die kapitalintensive Skalierung von Hardware langfristig zu stützen.
Das globale Haifischbecken: Metzingen gegen das Silicon Valley
Dieses Kapital ist bitter nötig, denn der Markt für humanoide und kognitive Robotik wird aktuell massiv von US-Hyperscalern und chinesischen Speedbooten befeuert. Auf der einen Seite steht Elon Musk mit Tesla Optimus und enormer Skalierungsmacht. Auf der anderen Seite agieren hochfinanzierte US-Start-ups wie Figure AI, die mit Milliarden von Microsoft und dem KI-Gehirn von OpenAI ausgestattet sind. Hinzu kommen chinesische Hersteller wie Unitree, die mit staatlicher Förderung extrem günstige Modelle auf den Markt werfen.
In diesem Milliarden-Rennen positioniert sich Neura Robotics als europäische Speerspitze. Das Unternehmen liefert einen technologischen Gegenentwurf, der Kunden wie Kawasaki Heavy Industries und Omron bereits überzeugt hat – laut CEO David Reger liegen die Auftragsbücher bei einem Volumen von fast 1 Milliarde US-Dollar.
Der Burggraben: Wie sich Neura Robotics positioniert
Um gegen die Tech-Giganten zu bestehen, setzt das Start-up auf einen technologischen Burggraben. Mit diesen Alleinstellungsmerkmalen will sich Neura von der Konkurrenz abheben:
- „Physical AI“ statt umgebauter Chatbots: Während viele Konkurrenten textbasierte KI-Modelle nachträglich in Roboter integrieren, betont Neura, seine KI von Grund auf für die physische Welt gebaut zu haben. Die Roboter verfügen über ein multisensorisches System: Sie sehen in 3D, sollen Sprache im Fabriklärm erkennen und durch haptisches Feedback ein echtes "Fingerspitzengefühl" besitzen.
- Sicherheit ohne Käfige: In traditionellen Fabriken arbeiten Roboter hinter teuren Schutzzäunen. Neuras Modelle verfügen über eine patentierte Sensorik (Touchless Safe Human Detection). Sie sollen Menschen in Echtzeit erkennen, berührungslos stoppen oder ausweichen. Dadurch können Mensch und Maschine ohne teure Fabrikumbauten direkt im selben Raum arbeiten.
- Die Plattform-Strategie: Das Start-up baut nicht nur einen Roboter. Die kognitive KI fungiert als Betriebssystem, das in verschiedene Hardware-Formen gegossen wird – sei es der Humanoide 4NE-1 oder der hochpräzise kognitive Cobot MAiRA. Die Idee: Macht ein Roboter im Netzwerk einen Fehler, lernen alle anderen weltweit daraus. Ein Ökosystem, das zudem durch strategische Partnerschaften mit Giganten wie Nvidia und Schaeffler gestützt wird.
- Fokus auf Datensouveränität: Von der KI über die Steuerungssoftware bis hin zu den Sensoren entwickelt Neura Kernkomponenten im eigenen Haus. Dieser "Made in Germany"-Ansatz garantiert aus Unternehmenssicht höchste Datensicherheit. Für westliche Industrieunternehmen ist das ein massives Argument gegenüber asiatischen oder US-amerikanischen Herstellern.
„We serve humanity“: Klare Kante gegen Rüstungsdeals
Trotz des rasanten Wachstums bleibt David Reger seinen Prinzipien treu – ein Aspekt, den wir bereits in unserer Coverstory beleuchtet haben. Der Gründer positioniert seine Roboter strikt als Zivil- und Helfermaschinen für Industrie und Haushalt. Lukrative Anfragen aus der Rüstungsindustrie lehnt das Unternehmen kategorisch ab. Der Humanoide 4NE-1 soll den Menschen entlasten, nicht ersetzen oder bedrohen. Mit dieser ethischen Linie setzt Neura einen bewussten Gegenpol zu einem Markt, der teilweise stark militärisch geprägt ist.
Fazit: Der „iPhone-Moment der Robotik“
Analysten von Barclays schätzen, dass der Markt für KI-basierte Roboter und autonome Maschinen bis 2035 auf rund 1 Billion Dollar anwachsen wird. Mit der erwarteten Milliarden-Finanzierung und dem ehrgeizigen Ziel, bis 2030 rund 5 Millionen Einheiten zu produzieren, unterstreicht Neura Robotics seinen Anspruch auf die globale Weltspitze. Für das Metzinger Start-up hat die Phase der weltweiten Skalierung gerade erst begonnen.
MedTech-Start-up RAYDIAX holt 7,5 Mio. Euro für neuartiges CT-System
RAYDIAX sichert sich 7,5 Mio. Euro, um mit einem speziell für minimal-invasive Eingriffe entwickelten Computertomographen die Krebsbehandlung zu verbessern. Doch der Weg vom universitären Forschungslabor in die globalen Operationssäle ist im hochregulierten Gesundheitsmarkt lang. Ein Blick auf ein DeepTech-Geschäftsmodell, das sich nun in der klinischen Praxis beweisen muss.
Die erfolgreiche Series-A1-Finanzierungsrunde über 7,5 Millionen Euro für RAYDIAX markiert einen wichtigen Meilenstein von der universitären Forschung in den Gesundheitsmarkt. Das 2022 gegründete Unternehmen mit Hauptsitz im Magdeburger Wissenschaftshafen ist eine Ausgründung des Forschungscampus STIMULATE und der Otto-von-Guericke-Universität Magdeburg. Unter der Führung eines fünfköpfigen Gründerteams – bestehend aus CEO Dr. Thomas Hoffmann, Dr. Tim Pfeiffer, Dr. André Mewes, Benjamin Fritsch und Robert Frysch – konnte das Start-up nach einer erfolgreichen Seed-Phase nun erhebliche Mittel für den Eintritt in die klinische Phase sichern.
Das frische Kapital setzt sich aus 5 Millionen Euro Venture Capital von bestehenden Business Angels, dem Bestandsinvestor bmp Ventures mit den IBG Fonds sowie dem neu eingestiegenen GETEC Family Office um Dr. Karl Gerhold zusammen. Ergänzt wird diese Summe durch 2,5 Millionen Euro Fördermittel aus dem hochkompetitiven EIC Accelerator-Programm der Europäischen Kommission, das gezielt disruptive Deep-Tech-Innovationen mit hohem Skalierungspotenzial unterstützt.
TACT: Computertomographie für den OP neu gedacht
Im Zentrum dieser ambitionierten Wachstumspläne steht der Therapieassistenz-Computertomograph „TACT“, den RAYDIAX dediziert für minimal-invasive Krebstherapien entwickelt. Anders als herkömmliche CTs optimiert das Unternehmen sein System sowohl im Hardware- als auch im Softwarebereich speziell für den interventionellen Einsatz bei der Therapieplanung, -durchführung und -kontrolle. Wie Steffen Schmidt, CFO der GETEC-Gruppe, hervorhebt, ermöglicht die innovative Technologie eine fokussierte Live-Bildgebung, welche die Strahlenbelastung für Patient*innen und Operateur*innen senkt und die Operationszeit verringert.
Zudem bietet das System durch eine größere Geräteöffnung völlig neue Operationsmethoden im CT, wie beispielsweise den Einsatz von Robotik. Der Markt für solche Lösungen wächst, da minimal-invasive Eingriffe angesichts einer alternden Bevölkerung und steigender Krebsinzidenzen massiv an Bedeutung gewinnen. Sie ermöglichen in vielen Fällen eine schonendere Behandlung im Vergleich zu offenen chirurgischen Eingriffen, verkürzen potenziell Operations- sowie Liegezeiten, verringern Komplikationen und können so zusätzliche Behandlungskapazitäten schaffen, um die Krankenhausstrukturen zu entlasten.
Harter Wettbewerb und regulatorische Hürden
Trotz der vielversprechenden Technologie steht das Geschäftsmodell in der Praxis vor erheblichen Herausforderungen. Der globale Markt für medizinische Bildgebung ist hart umkämpft, und der Vertrieb an Kliniken ist durch extrem lange, hochkomplexe B2B-Entscheidungszyklen geprägt. RAYDIAX tritt diesem Wettbewerb entgegen, indem es anstrebt, eine funktional dringend benötigte, neue Gerätekategorie in der interventionellen Onkologie zu etablieren, um so eine Lücke im OP-Betrieb zu füllen.
Der Beweisdruck auf dem jungen Unternehmen ist dennoch enorm: Das neu eingeworbene Kapital wird nun für First-in-Human-Studien eingesetzt, um die frühe klinische Evidenz am Patienten zu generieren. Diese Phase legt die Grundlage für die regulatorische Zulassung und kommerzielle Skalierung. Parallel dazu erfordert die Weiterentwicklung zur Serienreife einen konsequenten Ausbau in den Bereichen Vertrieb, Produktion und Qualitätsmanagement, um die ersten kommerziellen Installationen systematisch vorzubereiten.
Lehrstück für europäisches DeepTech
Dieser Fall zeigt eindrucksvoll die Realität und die hohen Anforderungen europäischen DeepTech-Unternehmertums. Der Abschluss dieser Finanzierungsrunde belegt deutlich, wie essenziell die intelligente Kombination aus wissenschaftlicher Grundlagenforschung, klassischem Risikokapital und strategischen europäischen Fördergeldern ist. Nur so lässt sich die extrem kapitalintensive Entwicklungsphase von Hardware in der Medizintechnik erfolgreich überstehen. Wenn es dem Gründerteam nun gelingt, die klinische Wirksamkeit in der Praxis zu belegen und die regulatorischen Hürden zu meistern, hat dieses Spin-off das Potenzial, die Anwendung minimal-invasiver Krebstherapien erheblich auszuweiten.
Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab
Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.
Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.
Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.
Aus dem Drucklabor zum DeepTech
Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.
Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.
Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut
Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).
Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.
Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos
Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.
In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.
Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.
Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.
Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen
Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.
Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.
Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.
Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.
Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.
Fördermittel: Worauf Gründer*innen von Beginn an achten sollten
Wichtige Dos and Don’ts bei der Fördermittelbeantragung.
Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.
In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.
Die Weichenstellung: Förderung ist eine Managemententscheidung
Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:
1) Aufbauphase: Fokus schaffen (unter anderem exist)
In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.
2) Projektphase: Planbar entwickeln (etwa ZIM)
Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.
3) Förderung in jeder Phase (Forschungszulage)
Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.
Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.
Fazit
Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.
Die Autorinnen
Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.
Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
Foodforecast: 8-Mio.-Euro-Runde gegen Lebensmittelverschwendung
Das Kölner FoodTech-Start-up Foodforecast hat sich acht Millionen Euro frisches Kapital gesichert, um mittels künstlicher Intelligenz die Lebensmittelverschwendung in Bäckereien und der Gastronomie zu reduzieren.
Jeden Tag landen in Europa rund 30.000 Tonnen frische Lebensmittel ungenutzt im Müll, was in der Praxis häufig auf eine unpräzise Bedarfsplanung im Lebensmitteleinzelhandel und in der Gastronomie zurückzuführen ist. Genau an dieser Ineffizienz der Wertschöpfungskette setzt das 2022 gestartete Kölner Foodforecast an. Mit einer KI-gestützten Software zur Absatz- und Produktionsprognose hat das Start-up nun eine Series-A-Finanzierungsrunde in Höhe von acht Millionen Euro abgeschlossen. Angeführt wird die Runde von den niederländischen Investoren SHIFT Invest sowie dem auf Bioökonomie spezialisierten europäischen VC ECBF. Auch bestehende Geldgeber wie der Future Food Fund und Aeronaut Invest beteiligten sich erneut an der Kapitalerhöhung. Zudem wird die Finanzierung durch Mittel des EU-Programms InvestEU unterstützt.
Von der regionalen Machbarkeitsstudie zur internationalen Skalierung
Hinter der Technologie steht ein klassischer Gründungsansatz aus der Praxis. Der Informatiker Justus Lauten rief das Projekt Ende 2018 zunächst unter dem Namen „Werksta.tt“ ins Leben, nachdem regionale Bäckereien auf ihn zugekommen waren, um eine softwaregestützte Lösung für ihre hohen Retourenmengen zu finden. Später holte Lauten den Wirtschaftsingenieur Jan Brormann als Co-Founder und COO in das Führungsteam, den er im Umfeld eines Corporate-Start-ups kennengelernt hatte. Einem breiteren Publikum wurde die Marke zudem durch einen Pitch in der TV-Sendung „Die Höhle der Löwen“ bekannt. Gründer und CEO Justus Lauten ordnet den aktuellen Kapitalfluss nüchtern ein: „Diese Series A stellt einen wichtigen Meilenstein für Foodforecast dar.“ Das Ziel des Unternehmens sei es, die Planung und Produktion von ultra-frischen Lebensmitteln grundlegend neu zu denken. Mit den neuen Investoren an Bord sei man nun bereit, die eigene Technologie international zu skalieren und einen neuen Benchmark für Planung, Effizienz und Nachhaltigkeit zu etablieren.
Renditehebel Nachhaltigkeit und die Grenzen der Prognosemodelle
Das Geschäftsmodell von Foodforecast fokussiert sich auf eine hochkomplexe Nische der Lieferkette: Die sogenannten ultra-frischen Produkte. Deren Haltbarkeit reicht von wenigen Stunden bis zu maximal einem Tag, was sie bei herkömmlicher Planung extrem schwer kalkulierbar macht. Die operativen Kennzahlen, die das Start-up bei Bestandskund*innen wie SSP Germany oder Eat Happy ausweist, zeigen das Potenzial der Technologie. Laut Unternehmensangaben ist die Software in der Lage, über 90 Prozent der vormals manuellen Bestell- und Produktionsprozesse zu automatisieren.
Gleichzeitig soll die Lebensmittelverschwendung um durchschnittlich bis zu 30 Prozent reduziert werden. Da die KI-gestützte Planung zudem „Out-of-Stock“-Situationen in den Regalen minimiert, steigen die potenziellen Umsätze laut Foodforecast um bis zu 11 Prozent. Bislang konnten durch diesen datengetriebenen Ansatz nach Angaben des Unternehmens bereits über 8.800 Tonnen an Lebensmittelabfällen eingespart werden.
Dass selbst ausgereifte Machine-Learning-Modelle im operativen Alltag an Grenzen stoßen, zeigt sich an lokalen Anomalien: Während die KI externe Faktoren wie Wetterdaten oder Schulferien mit hoher Präzision verarbeitet, sinkt die Prognosegenauigkeit beispielsweise während des Kölner Karnevals signifikant ab, da die Nachfrage nach bestimmten Backwaren in diesem Zeitraum extremen und sprunghaften Schwankungen unterliegt. Dennoch demonstriert der Business Case von Foodforecast, dass Nachhaltigkeitsziele im B2B-Umfeld zunehmend nicht mehr als isolierte CSR-Maßnahmen, sondern als integraler Bestandteil zur operativen Margenverbesserung positioniert werden.
Marktumfeld: Spezialisierung als Abgrenzungsmerkmal
Auch wenn die Series A eine solide Grundlage für die angestrebte Marktdurchdringung in Europa bildet, agiert Foodforecast in einem wettbewerbsintensiven Marktumfeld. Der Sektor für softwaregestützte Bedarfsplanung wächst und zieht verschiedene Akteure an. Einerseits haben sich spezialisierte Mitbewerber wie Foodtracks (gegründet 2017) bereits fest im deutschen Bäckerei-Segment positioniert und bedienen ein signifikantes Filialnetzwerk.
Andererseits integrieren große Retail-Software-Konzerne wie SAP oder Oracle sowie etablierte Anbieter von Kassensystemen zunehmend eigene Machine-Learning-Module für das Inventory Management in ihre Standardlösungen. Foodforecast versucht, sich in dieser Gemengelage durch die technologische Spezialisierung auf sogenannte Intraday-Prognosen – also untertägige Produktionsanpassungen – und den alleinigen Fokus auf das Segment der Ultra-Frische von generischen Supply-Chain-Plattformen abzugrenzen.
Herausforderungen in der Skalierung: Legacy-Systeme und Change Management
Trotz der nachweisbaren Traktion und einer Implementierung in mehreren tausend europäischen Filialen steht das Unternehmen vor den klassischen Wachstumsbarrieren des B2B-SaaS-Sektors. Eine zentrale Herausforderung bleibt die Datenverfügbarkeit und -qualität: Da die KI elementar auf historischen Abverkaufsdaten basiert, erweist sich die oft veraltete IT- und Kassensystem-Infrastruktur im filiallisierten Mittelstand (wie bei traditionellen Bäckereiketten) regelmäßig als technischer Flaschenhals bei der Software-Integration. Darüber hinaus erfordert die Implementierung eines zu großen Teilen automatisierten Bestellwesens ein konsequentes Change Management. Filialleiter*innen und Produktionsplaner*innens müssen Vertrauen in die algorithmischen Empfehlungen aufbauen, um die Software dauerhaft im Betriebsalltag zu verankern. Nicht zuletzt diktiert der Preisdruck in der margenschwachen Lebensmittel- und Gastronomiebranche die Vertriebsgeschwindigkeit: Software-as-a-Service-Lösungen in diesem Segment können sich nur behaupten, wenn der betriebswirtschaftliche Return on Investment durch reduzierte Retouren und Umsatzsteigerungen die laufenden Lizenzkosten zeitnah und messbar übersteigt.
Kultur entsteht nicht später – sie entsteht jetzt
Serie: Führen im Start-up, Teil 3: Warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren.
Montagmorgen, 7.42 Uhr: Das Team steht im offenen Büro. Der Release ist instabil, der Kunde ungeduldig. Der Gründer übernimmt das Gespräch. Die Stimme wird lauter. Der Ton schärfer. Niemand widerspricht.
Am Nachmittag ist wieder Ruhe. Abends posten alle auf LinkedIn über Teamspirit.
So entstehen Kulturen. Nicht im Offsite, nicht im Werte-Workshop, sondern in genau solchen Momenten.
Der größte Irrtum junger Unternehmen
„Um Kultur kümmern wir uns später. Jetzt geht es um Wachstum.“ Dieser Satz fällt häufig. Er klingt pragmatisch. Fast erwachsen. Tatsächlich ist er riskant.
Organisationsforschung beschreibt seit Jahrzehnten, dass sich Normen früh bilden – und erstaunlich schnell verfestigen. Besonders in Stresssituationen. Nicht in stabilen Phasen.
Unter Druck wird nicht nur gearbeitet. Unter Druck wird programmiert.
Stress schreibt Verhalten in die DANN
In der Frühphase herrscht fast permanent Unsicherheit: Finanzierung offen, Produkt iterativ, Rollen unscharf. Genau in diesem Umfeld bilden sich implizite Regeln.
- Wer darf widersprechen?
- Wie wird mit Fehlern umgegangen?
- Wer bekommt Anerkennung – und wofür?
- Wie werden Konflikte gelöst?
Diese Regeln werden selten formuliert. Sie werden beobachtet.
Wenn ein(e) Gründer*in Kritik als Bremse interpretiert, lernt das Team: Widerspruch ist riskant. Wenn Wochenendarbeit als Loyalitätsbeweis gilt, wird Dauerverfügbarkeit zur Norm. Wenn Entscheidungen spontan und intransparent fallen, entsteht operative Unklarheit.
Später spricht man von gewachsener Kultur. Tatsächlich handelt es sich um kumulierte Reaktionen auf frühen Druck.
Warum Geschwindigkeit Differenzierung verdrängt
Start-ups priorisieren Tempo. Verständlich. Märkte warten nicht. Investor*innen auch nicht.
Doch Geschwindigkeit hat Nebenwirkungen. Reflexion rutscht nach hinten. Entscheidungswege bleiben implizit. Rollen werden funktional verteilt, aber nicht sauber geklärt.
Untersuchungen zu Gründungsverläufen zeigen immer wieder ein ähnliches Muster: Unternehmen wachsen schneller als ihre Führungsstrukturen. Entscheidungen bleiben informell an die Gründungsperson gebunden, während Team und Komplexität zunehmen.
Was in der Frühphase Effizienz bedeutet, wird mit zunehmender Größe zur strukturellen Schwäche. Solange das Unternehmen klein ist, funktioniert das. Mit Wachstum wird es fragil.
Die Romantisierung der Anfangszeit
Die Start-up-Erzählung liebt Improvisation. Pizza im Büro. 18-Stunden-Tage. „Wir gegen den Rest der Welt.“ Doch genau in dieser Phase werden kulturelle Maßstäbe gesetzt.
- Was heute als Flexibilität gefeiert wird, kann morgen Willkür bedeuten.
- Was heute als Nähe empfunden wird, kann morgen Intransparenz heißen.
- Was heute als Loyalität gilt, wird morgen als Abhängigkeit erlebt.
Kultur ist kein Stimmungsbild. Sie ist ein System aus Erwartungen.
Warum spätere Kulturprogramme oft Symptome behandeln
Wenn ein Start-up wächst und Fluktuation steigt, Konflikte eskalieren oder Führung inkonsistent wirkt, beginnt häufig die Kulturarbeit. Leitbilder werden formuliert, Werte definiert, Workshops organisiert.
Doch Kultur entsteht nicht durch Deklaration. Sie entsteht durch Wiederholung, durch „ins Leben bringen“. Mitarbeitende orientieren sich nicht an Postern. Sie orientieren sich an erlebter Macht.
Wenn frühe Verhaltensmuster nie hinterfragt wurden, sind sie längst internalisiert. Ein späteres Werte-Set ersetzt keine gelebten Normen.
Der wirtschaftliche Preis
Kulturelle Dysfunktion ist kein weiches Thema.
- Sie beeinflusst Entscheidungsgeschwindigkeit.
- Sie erhöht Konfliktkosten.
- Sie wirkt auf Mitarbeiter*innenbindung.
- Sie prägt Innovationsfähigkeit.
- Sie beeinflusst Reputation am Arbeitsmarkt.
Interne Analysen vieler Investor*innen zeigen: Nicht Marktversagen ist die häufigste Ursache für Start-up-Scheitern, sondern Team- und Führungsprobleme. Und diese entstehen selten im zehnten Jahr. Sie entstehen im ersten.
Ein unbequemer Schluss
Kultur entsteht nicht dann, wenn sie auf der Agenda steht. Sie entsteht dann, wenn niemand hinsieht. Tag für Tag. Die entscheidende Frage lautet daher nicht: Welche Werte wollen wir später haben? Sondern: Was lehren wir unser System gerade – durch unser Verhalten unter Druck?
Denn jedes Start-up hat Kultur. Die einzige Frage ist, ob sie bewusst gestaltet oder sich unbewusst einschleicht.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
12 Mio. USD für Secfix: Vom simplen Compliance-Tool zur europäischen Security-Plattform
Die regulatorischen Daumenschrauben für Europas Unternehmen ziehen sich an. Das Münchner Start-up Secfix liefert die passenden Antworten – und sichert sich nun in einer überzeichneten Series-A-Runde 12 Millionen US-Dollar.
Heute verkündet das Münchner Start-up Secfix einen bedeutenden Meilenstein: Das Unternehmen, das sich als eine der führenden End-to-End Security-Compliance-Plattformen in Europa positioniert, hat eine überzeichnete Series-A-Finanzierung in Höhe von 12 Millionen US-Dollar erfolgreich abgeschlossen. Angeführt wird die Kapitalmaßnahme von Alstin Capital. Flankiert wird der Lead-Investor von Bayern Kapital sowie dem Bestandsinvestor neosfer, der Innovationseinheit der Commerzbank-Gruppe.
Von der TU München zur europäischen Expansion
Hinter Secfix stehen die CEO Fabiola Munguia sowie ihre Mitgründer Grigory Emelianov (CTO) und Branko Džakula (CISO). Die Wurzeln des Start-ups reichen an die Technische Universität München (TUM) zurück, wo Munguia und Emelianov studierten. Zunächst startete das Team 2021 mit Requestee, einem Marktplatz für ethische Hacker und Penetrationstests – eine Gründungsgeschichte, über die StartingUp bereits ausführlich in einem Porträt berichtet hat.
Doch im direkten Austausch mit Start-ups und dem Mittelstand erkannten die Gründer*innen durch gutes Zuhören am Markt ein weitaus gravierenderes, strukturelles Problem: Europäische Unternehmen standen vor enormen Hürden, da Security-Zertifizierungen bis zu 18 Monate dauerten und extrem viel manuellen Aufwand erforderten. Dieser langsame und teure Prozess hemmte das Wachstum massiv, denn ohne die passenden Nachweise verzögerten sich wichtige Vertragsabschlüsse, was teilweise zu Millionenverlusten führte. Das Team verinnerlichte eine wichtige unternehmerische Lektion: Compliance ist kein reines IT-Thema, sondern ein entscheidender Wachstumshebel, um Enterprise-Deals überhaupt abschließen zu können. Aus dieser Erkenntnis heraus vollzog das Team einen strategischen Pivot zu Secfix (sie offizielle Umfirmierung und Rechtsformwandlung erfolgte im Januar 2023), um die Prozesse für Standards wie ISO 27001, den EU AI Act, NIS2, DSGVO und SOC 2 grundlegend zu automatisieren.
Vom reinen Tool zum strategischen Partner
Was bei Secfix ursprünglich als reines GRC-Automatisierungstool (Governance, Risk, Compliance) begann, hat sich laut Unternehmensangaben mittlerweile zu einer KI-gestützten End-to-End Security-Compliance-Plattform in Europa weiterentwickelt. Dies ist eine direkte Antwort auf die Marktdynamik: Mit Vorgaben wie ISO 27001, NIS2, DORA und dem EU AI Act steigt der regulatorische Druck auf europäische Firmen derzeit erheblich an. Um in diesem komplexen Umfeld nicht nur bloße Checkbox-Compliance zu betreiben, vereint Secfix heute Compliance-Automatisierung mit einem KI-nativen "CISO-as-a-Service". Das Portfolio deckt dabei weite Teile der Sicherheitsinfrastruktur ab und reicht von kontinuierlichem Monitoring, Incident-Management und Access-Management bis hin zu Cloud-Security-Scanning, Penetrationstests und vollumfänglicher Security-Führung.
Dieser ganzheitliche Ansatz scheint im Markt auf Resonanz zu stoßen: Laut Secfix können Kund*innen die Dauer ihrer Zertifizierungsprozesse durch die Plattform um bis zu 90 Prozent verkürzen. Gleichzeitig verweist das Start-up auf eine Audit-Erfolgsquote von 100 Prozent. Aktuell vertrauen bereits Hunderte von Kund*innen in über 15 europäischen Ländern auf den Service, darunter renommierte Unternehmen wie WorkMotion, Veremark, Orianda und Trafigura sowie Banken und Energieunternehmen.
Die nächsten Schritte: Europa im Visier und „Smart Money“ an Bord
Mit dem frischen Kapital will Secfix nun die Expansion in ganz Europa gezielt vorantreiben. Zudem investiert das Unternehmen in die Weiterentwicklung seiner KI-gestützten Automatisierung und skaliert das CISO-as-a-Service-Angebot für die wachsende Nachfrage im Mid-Market.
Die strategische Neuausrichtung bringt Fabiola Munguia, die CEO des Münchner Unternehmens, wie folgt auf den Punkt: „Wir haben damit begonnen, Unternehmen schnell und unkompliziert zur Zertifizierung zu bringen. Heute werden wir zu ihrem langfristigen Security- und Compliance-Partner für alles, was danach kommt. Unsere Vision ist es, Secfix als führende End-to-End Security-Compliance-Plattform Europas zu etablieren, die Unternehmen von der ersten ISO-27001-Zertifizierung an durch ihre gesamte Security- und Compliance-Reise begleitet.“
Für das weitere Wachstum setzt Secfix dabei ganz bewusst auf "Smart Money". Mit dem Lead-Investor Alstin Capital holt sich das Start-up einen Münchner Fonds an Bord, der stark auf B2B-Software fokussiert ist. Besonders wertvoll dürfte der „All-in“-Ansatz des Investors sein: Neben Kapital unterstützt Alstin die Gründerteams aktiv durch Sales-Coaching, Go-to-Market-Strategien sowie den Zugang zu relevanten Industriekontakten.
GameChanger des Monats: Gwen Thomas - Vom Background-Gesang zum SOMA SPACE
Das Business mit der inneren Stimme: Wie Gwen Thomas Stimmtherapie zum Gamechanger macht.
Einst stand Natascha Gweneth (Gwen) Thomas als Backgroundsängerin für Größen wie Sido und Cro auf der Bühne. Heute ist sie Unternehmerin, Stimmtherapeutin und Autorin. Mit ihrer digitalen Plattform, einer eigenen Ausbildungsmethode und dem Hamburger Studio SOMA SPACE hat sie eine Nische für körperbasierte Bewusstseinsarbeit besetzt.
Dabei schien ihre Karriere zunächst ganz anders vorgezeichnet: Nach einem Stipendium an der Stage School und Jahren im professionellen Musikbusiness tourte sie intensiv und schrieb Songs in den Hansa Studios. Doch der Erfolg in dieser stark männlich geprägten und druckvollen Zeit hatte seinen Preis. „Ich habe funktioniert, aber mich selbst immer weiter verloren“, erinnert sie sich heute. Ein schwerer biografischer Einschnitt zog schließlich den endgültigen Schlussstrich unter ihre Musikkarriere: Im siebten Monat verlor sie ihren ersten Sohn. Sie brach alle Engagements ab, begann eine Therapie und zog sich vollständig zurück. Aus diesem schmerzhaften Nullpunkt heraus entstand das Fundament für ihr heutiges Unternehmen.
Aus eigener Heilung wird ein Business Case
Anstatt auf die Bühne zurückzukehren, verwebte Gwen ihre Erfahrungen aus Musik, Schauspiel, somatischer Arbeit und Klangtherapie zu einem neuen Konzept. Ende 2020 launchte sie die Website www.deinestimmedeinraum.de. Hieraus entwickelte sie rechtlich geschützte Methoden wie das Holistisch Stimmtherapeutische Coaching® sowie den Vocal-Energetic Release™. Ihr Ansatz ist dabei stets körperorientiert. „Die Stimme weiß oft früher als der Verstand, dass etwas nicht stimmt“, erklärt sie. Es gehe nicht um bloßes Schreien, sondern um die Wahrnehmung von Blockaden im Nervensystem. Die Stimme fungiere dabei als Antenne, die zeigt, wo jemand nicht in seiner Wahrheit lebt.
Heute ist ihr Geschäftsmodell breit aufgestellt und umfasst Workshops, Retreats sowie ein spezialisiertes Mentoring. Dass ihre Arbeit oft exklusiv und hochpreisig ist, sieht Gwen nicht als Widerspruch zu ihrem feministischen Anspruch. Für sie ist es ein Akt der Selbstfürsorge, den eigenen finanziellen Wert zu kennen. Sie betont: „Wenn Frauen in meine Ausbildung oder in ein Mentoring investieren, ermöglichen sie ein System, in dem ich Frauen anstellen kann, sie fair bezahle und wirtschaftliche Unabhängigkeit fördere.“
Feminismus und wirtschaftliche Klarheit gehören für Gwen untrennbar zusammen, da das Unter-Wert-Verkaufen lediglich alte patriarchale Systeme reproduzieren würde. Sie möchte, dass Frauen – die oft jahrelang unbezahlte Care-Arbeit geleistet haben – endlich in finanzieller Fülle stehen dürfen.
Embodiment als politischer Akt
Für Gwen ist diese Arbeit weit mehr als individuelles Coaching; sie ist zutiefst politisch. Sie ist überzeugt, dass die Wahrnehmung der Frau über Generationen vom Patriarchat abgespalten wurde. „Gerade wir Frauen haben gelernt, uns zurückzunehmen – nicht nur in unserem Ausdruck, sondern auch in dem, was wir vom Leben wollen“, sagt sie. In ihrem Mentoring arbeitet sie daher gezielt mit Frauen in Führungspositionen, wie etwa Chefärztinnen oder Tech-Expertinnen, die gelernt haben, auf eine männliche Weise zu performen, sich dabei aber selbst verlieren.
Ihre Marke The Vulva Voice ist in diesem Kontext ein klares Statement. Gwen erklärt, dass dieses Branding keine kalkulierte Marketingstrategie war, sondern aus einer verkörperten Haltung entstand. Sie fordert eine Erweiterung des Marktes und eine neue Offenheit in klassischen Unternehmensräumen: „Wir dürfen aufhören so zu tun, als seien Körper, Zyklus, Trauma oder emotionale Intelligenz ‚private Themen‘. Sie betreffen jede Frau – und damit jede Organisation.“
Qualitätssicherung und die Grenzen des Coachings
Um dieses politische Ziel mit fachlicher Exzellenz zu untermauern, nutzt Gwen ihr Buch Vulva Voice als Filter für Qualität. Ihr Fundament bilden Zertifizierungen in traumasensibler Begleitung, Body-Mind-Centering und MediAkupresseur.
Angesprochen auf die Abgrenzung zur klassischen Therapie stellt sie klar, dass ihre Angebote reine „Erfahrungsräume“ sind. Sie versteht sich nicht als Heilerin, sondern als Raumhalterin. Durch ihren traumasensiblen Hintergrund arbeitet sie strikt ressourcenorientiert: „Wir aktivieren zunächst die Fähigkeit zur Selbstregulation [...], bevor wir mit intensiveren Themen arbeiten.“ Sie diagnostiziert nicht und ersetzt keine Therapie. Sollte eine Teilnehmerin therapeutische Hilfe benötigen, kommuniziert Gwen dies transparent. Ihre Arbeit dient der Kapazitätsbildung im Umgang mit biografischen Prägungen, nicht deren „Wegmachen“.
Skalierung und Vision
Obwohl das Unternehmen stark mit Gwens persönlicher Geschichte verwoben ist, plant sie bereits die Skalierung über ausgebildete Trainerinnen im Soma Space. Diese sollen keine Kopien ihrer selbst sein, sondern ihre eigene Geschichte und Stimme nutzen. Für Gwen bedeutet unternehmerisches Wachstum vor allem Multiplikation: „Skalierung bedeutet für mich nicht Entpersonalisierung, sondern Verkörperung in vielen Körpern.“
Die Ergebnisse sind oft lebensverändernd. Viele Frauen erkennen, dass ihre Dysregulation kein individuelles Versagen ist, sondern eine Reaktion auf nicht geachtete Ressourcen. Das führt oft zu radikaler Klarheit – bis hin zu Trennungen, wenn Klientinnen plötzlich ihre eigene Wahrheit spüren.
Gwen Thomas selbst blickt heute mit großer Klarheit auf ihren Weg. Sie hat ihren Schmerz und ihr Trauma in ihre Arbeit transformiert. „Ich weiß heute, dass ich den Schmerz [...] nicht mehr brauche“, sagt sie. „Das hat mir geholfen, hier anzukommen.“
Executive Search 2026
Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?
Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.
Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?
Was kann KI leisten – und was nicht?
Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.
Warum der Mensch unverzichtbar bleibt
Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.
Leadership in Zeiten von KI
Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.
Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.
KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung
Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.
Fazit: Executive Search neu denken
Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.
KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.
Gründer*in der Woche: syntik – High-Tech im Herzen der Industrie
Wie Mert Erdoğan mit syntik den Mittelstand fit für die Zukunft machen will, indem er Unternehmen ganzheitlich von der KI-Strategie über das Mitarbeitendentraining bis hin zur technischen Umsetzung individueller Softwarelösungen begleitet.
Vom sicheren Management-Sessel in das Wagnis der Selbständigkeit – diesen Weg wählen viele, doch nur wenige tun es mit einem so klaren Fokus auf die Old Economy. Mert Erdoğan, selbst Alumni der Universität Siegen, sah jahrelang eine wachsende Kluft: Auf der einen Seite die rasanten Fortschritte in der KI-Entwicklung, auf der anderen Seite ein deutscher Mittelstand, der oft noch mit Excel-Tabellen und Papierbergen kämpft.
„Ich habe in vielen Projekten gesehen, wie groß das Potenzial von KI ist. Vor allem in Bereichen, in denen heute noch unnötig viele repetitive Aufgaben manuell erledigt werden. Das Frustrierende war, dass diese Use Cases echten Mehrwert schaffen könnten, aber gerade im Mittelstand fehlt oft das Know-how, sie technisch und wirtschaftlich richtig einzuordnen. Genau da wollte ich ansetzen“, sagt Mert. Seine Antwort darauf ist syntik.
Der Dolmetscher zwischen zwei Welten
Das Problem vieler Traditionsunternehmen ist nicht der Unwille zur Innovation, sondern die Überforderung durch die Komplexität. Genau hier setzt das Geschäftsmodell von syntik an. Das 2025 im Siegerland gegründete Start-up versteht sich weniger als klassische IT-Beratung, sondern vielmehr als Übersetzer und Brückenbauer.
„Viele haben Angst vor großen KI-Investitionen ohne entsprechendem ROI und der Intransparenz dahinter. Wir übersetzen das Thema in verständliche, wirtschaftlich greifbare Schritte. Was muss individuell entwickelt werden, wie viel kostet dies, gibt es ggf. Fertige Lösungen. So machen wir aus Unsicherheit konkrete Handlungsmöglichkeiten“, so Mert.
Die Philosophie ist simpel: Technologie muss demokratisiert werden. Syntik holt die Unternehmen dort ab, wo sie stehen. Das Portfolio ruht dabei auf drei Säulen: Einer strategischen Beratung, die echte Anwendungsfälle jenseits von Spielereien identifiziert, einem umfangreichen Trainingsprogramm, das den Mitarbeitenden die Angst vor der "Black Box" KI nimmt, und schließlich der harten technischen Umsetzung individueller Softwarelösungen.
Alltagstauglichkeit statt KI-Schnickschnack
In einer Branche, die oft von Buzzwords und abstrakten Visionen dominiert wird, wirkt der Ansatz der Siegener erfrischend pragmatisch. Während etablierte IT-Riesen und schicke KI-Boutiquen aus den Metropolen sich oft auf DAX-Konzerne stürzen und entsprechende Preisschilder aufrufen, lässt syntik diese Nische bewusst links liegen.
Das Alleinstellungsmerkmal liegt in der kulturellen Passung. Die Macher hinter syntik treten nicht als abgehobene Tech-Evangelisten auf, sondern als Partner auf Augenhöhe. Sie sprechen die Sprache der Ingenieur*innen und Kaufleute im Mittelstand.
„Wir kommen nicht mit besonderen Folien, sondern mit echtem Verständnis für die Herausforderungen im Alltag. Ich kenne den Mittelstand, weil ich selbst aus dieser Welt komme. Mein Vater arbeitet sei über 20 Jahren bei den Deutschen Edelstahlwerke (DEW). Wir reden nicht über Visionen, wir reden über Lösungen, die heute schon etwas besser machen in den kaufmännischen Prozessen“, so Mert.
Dieser „Siegerländer Pragmatismus“ kommt an. Statt theoretischer Powerpoints liefert das Team Lösungen, die funktionieren – sei es die Automatisierung der Angebotserstellung oder die Optimierung der Materialdisposition. Es geht darum, KI vom abstrakten Gespenst zum nützlichen Werkzeug am Fließband oder im Büro zu machen.
„Unsere Kunden sagen oft ‚Das ist kein KI-Schnickschnack, das hilft uns wirklich im Alltag.‘ Und genau das ist unser Anspruch, Lösungen zu liefern, die sofort spürbar etwas verbessern und Kapazitäten für relevante Aufgaben frei werden“, so Mert.
Bootstrapping statt Venture Capital
Auch bei der Finanzierung bleibt Mert Erdoğan seiner Linie treu. Statt sich frühzeitig von Venture-Capital-Gebenden abhängig zu machen und Anteile gegen „schnelles Geld“ zu tauschen, wählte syntik den Weg des Bootstrappings. Das Unternehmen wächst organisch aus dem eigenen Cashflow.
Dieser Weg ist steiniger und erfordert mehr Geduld, signalisiert den Kund*innen aber auch Stabilität: Hier wird kein Geld verbrannt, um künstliche Wachstumsziele zu erreichen. Das Stammkapital der GmbH wurde klassisch eingebracht, das Risiko liegt beim Gründer.
„Wir wollen nur unseren Kunden verpflichtet sein, nicht irgendwelchen Wachstumsverpflichtungen von Investoren. Unabhängigkeit heißt für uns, dass wir selbst entscheiden, was sinnvoll ist. Und wir wachsen nur dort, wo es echten Mehrwert bringt. Wenn wir bestimmte KI-Produkte entsprechend etabliert haben und den Bedarf am stärksten an bestimmten Stellen sehen, können wir ggf. über Investoren sprechen“, betont der CEO.
Dieses Vorgehen schafft Vertrauen gerade beim Mittelstand, der oft skeptisch gegenüber fremdfinanzierten Start-up-Blasen ist.
Der Blick nach vorn: Fokus auf die Schwergewichte
Trotz der jungen Firmengeschichte – die Gründung erfolgte erst im Sommer 2025 – kann das Team bereits auf Referenzen aus über einem Dutzend Branchen verweisen. Im Gespräch mit dem Alumniverbund der Uni Siegen machte Erdoğan deutlich, wohin die Reise gehen soll: Der Fokus verschiebt sich zunehmend auf stark regulierte und dokumentationsintensive Sektoren wie Pharma, Chemie und Automotive.
Gerade in diesen Bereichen, wo Fehler teuer sind und Prozesse strikten Normen unterliegen, sieht der Gründer das größte Potenzial für KI-gestützte Effizienzsteigerung. Damit besetzt das Start-up seinen „Sweet Spot“ im Markt: Syntik agiert agiler und nahbarer als die nicht selten „trägen Tanker der Großberatungen“, ist aber gleichzeitig strategisch weitsichtiger als reine Software-Entwickler, die oft nur Code liefern, ohne die komplexen Prozesse des Mittelstands wirklich zu verstehen.
„Wir geben uns nicht mit Oberflächenlösungen zufrieden. Unser Ziel ist es, KI dort nutzbar zu machen, wo sie bisher scheitert. In kritischen Prozessen, unter realen Bedingungen mit echten Ergebnissen. Beim automatisierten Abgleich von Ausschreibungen, der strukturierten Verarbeitung technischer Anfragen, präzisen Forecasts in der Instandhaltung oder intelligenten Assistenzsystemen in Form von Chatbots für Normen und Richtlinien mit entsprechender Logik, Aktionen in Systemen und Mehrsprachigkeit“, so Mert.
Langfristig will das syntik den Schritt vom reinen Dienstleister zum Produktanbieter vollziehen. Geplant ist die Entwicklung standardisierter KI-Module, die sich wie Bausteine in verschiedene Unternehmenslandschaften integrieren lassen.
Mit syntik beweist Mert Erdoğan einmal mehr, dass Innovation nicht zwangsläufig aus den Metropolen kommen muss. Manchmal entsteht sie genau dort, wo sie am dringendsten gebraucht wird: Mitten im Maschinenraum der deutschen Wirtschaft.
