Aktuelle Events
Wie Start-ups mit KI und Low-Code durchstarten können
Angesichts des Drucks der fortschreitenden Digitalisierung und des Fachkräftemangels bietet KI-gestütztes Coding vielversprechende Chancen, gerade auch für Start-ups.
Die Analysten von Gartner gehen davon aus, dass bis 2028 drei von vier Softwareentwicklern in Unternehmen KI-Assistenten beim Programmieren einsetzen werden. Das ist ein deutlicher Anstieg gegenüber Anfang 2023, als der Anteil noch unter zehn Prozent lag. Start-ups sind aufgrund ihrer Agilität und ihres Innovationsgeistes besonders gut aufgestellt, um KI-Tools zu nutzen und ihre Programmierprozesse grundlegend zu verändern. Angesichts des Drucks der fortschreitenden Digitalisierung und des Fachkräftemangels bietet KI-gestütztes Coding vielversprechende Chancen. Low-Code-Plattformen ermöglichen es Start-ups, dieses Potenzial effektiv zu nutzen.
KI und generative KI (GenAI) stellen eine Herausforderung für die traditionelle Softwareentwicklung dar. Daher haben die Diskussionen über ihre möglichen Auswirkungen in den letzten Jahren stark zugenommen. Eines ist jedoch klar: diese Technologie verspricht, die Softwareentwicklungsprozesse von Unternehmen deutlich effizienter zu gestalten.
Die rasante Entwicklung im Bereich der künstlichen Intelligenz bedeutet, dass beispielsweise bestimmte Aufgaben wie die Dokumentation von Quellcode für die Wartbarkeit und das Schreiben neuen Codes laut McKinsey nur noch halb so viel Zeit in Anspruch nehmen. Gartner prognostiziert, dass KI-gestütztes Programmieren die Produktivität menschlicher Entwickler in naher Zukunft um das Zehnfache steigern kann. Für Start-ups, die KI-unterstützte Programmierung einsetzen, bedeutet dies schnellere Entwicklungszyklen und weniger Zeitaufwand für die Wartung. Dies setzt jedoch einen durchdachten Coding-Ansatz voraus, der es Start-ups ermöglicht, in einem zunehmend komplexen Markt flexibel zu bleiben, ohne Kompromisse bei der Sicherheit einzugehen.
Die Macht von KI und generativer KI im Coding von morgen
Start-ups sollten die Einführung von KI-gestützter Programmierung sorgfältig abwägen und mit den richtigen Sicherheits-Tools kombinieren, um ihre Agilität zu erhalten und Innovationen voranzutreiben. KI, und insbesondere generative KI, kann Entwicklern dabei helfen, Code schneller und mit weniger Fehlern zu schreiben und zu verfeinern. Diese Technologien können wiederkehrende Aufgaben automatisieren, Code-Verbesserungen vorschlagen und sogar neue Code-Fragmente generieren. Dadurch wird der Zeit- und Arbeitsaufwand für die Softwareentwicklung erheblich reduziert.
Üblicherweise dauert die Entwicklung von Software von der Idee bis zum marktreifen Produkt im besten Fall Monate – im realistischen Szenario jedoch Jahre. Eine erfolgreiche Anwendung durchläuft dabei einen stringenten Planungs- und Entwurfsprozess, bevor mit der Programmierung, dem Testen und Debuggen begonnen werden kann. Auch nach der Bereitstellung ist eine kontinuierliche Wartung erforderlich, um sicherzustellen, dass die Software reibungslos läuft und Aktualisierungen und Leistung den wachsenden Anforderungen entsprechen. In der Realität sind für die meisten dieser Prozesse Tech-Experten zuständig, was zu Verzögerungen und Ineffizienz führt, da Nachfrage und die verfügbaren Ressourcen meist nicht im Gleichgewicht sind.
KI ersetzt keine Developer-Expertise
Bei jedem Update von ChatGPT werden Stimmen laut, die postulieren, dass diese Version die traditionelle Entwicklung abschafft und es jedem ermöglicht, ein Entwickler zu sein. In der Realität ist das Programmieren mit Hilfe von KI jedoch kein Ersatz für technische Expertise. Der Einsatz von KI in der Programmierung hat zwar ein enormes Potenzial, die Geschwindigkeit zu erhöhen, aber die sporadischen Ungenauigkeiten der KI-Halluzinationen erfordern technische Unterstützung, um die Qualität des Codes zu erhalten und Schwachstellen zu vermeiden. (Zur Info: Spricht man im Rahmen der KI von einer Halluzination, ist damit ein überzeugend aussehendes KI-generiertes Ergebnis in Text- oder Bildform gemeint, das nicht durch Trainingsdaten objektiv belegt werden kann und damit weitgehend erfunden ist.)
Denn öffentlich verfügbare KI-Modelle werden auf öffentlich zugänglichen Codebasen trainiert – und ein erheblicher Teil davon ist naturgemäß fehlerhaft. Mit anderen Worten: Die Qualität der Daten, mit denen die generativen Modelle gefüttert werden, und die daraus resultierenden Modelle selbst, sind alles andere als perfekt.
Low-Code und KI – ein starkes Duo für Gründer*innen
Um schnell innovativ zu sein und agil zu bleiben, müssen Unternehmen die Einführung von KI mit Lösungen kombinieren, die solide Leitlinien und Governance gewährleisten, um den resultierenden Code vor Schwachstellen und Fehlern zu schützen.
Neben der Frage der Einführung von KI in der Softwareentwicklung, führt der anhaltende Fachkräftemangel weiterhin dazu, dass IT-Teams die wachsenden Aufgaben in der immer komplexeren IT-Landschaft nicht bewältigen können. Das bedeutet, dass Unternehmen, neben dem Einsatz von KI zur Verbesserung der Programmiereffizienz, Wege finden müssen, um ihre Mitarbeitenden weiterzubilden und breitere Teams in die Ideenfindung und Entwicklung einzubeziehen.
In diesem Zusammenhang spielt die Low-Code-Technologie eine zentrale Rolle, weil sie nicht nur die Entwicklung sicherer und robuster Anwendungen gewährleistet, sondern auch wesentlich zur Demokratisierung der Softwareentwicklung beiträgt. Das bedeutet, dass in der Praxis Fachbereichs-übergreifende „Fusion Teams“ entstehend, die Teammitglieder ohne tiefes technisches Wissen in die Lage versetzen, während des gesamten Innovations- und Softwareentwicklungsprozesses mit den IT-Profis zusammenzuarbeiten. Aus der Entwicklungsperspektive trägt dies auch dazu bei, die Qualität der entwickelten Software zu erhöhen, da die künftigen Nutzer*innen von Anfang an einbezogen werden. Außerdem werden dadurch Silos innerhalb der traditionellen Softwareentwicklungsprozesse aufgebrochen und der Austausch von Wissen und Feedback erleichtert. Dies rationalisiert die Entwicklung und beseitigt personelle Engpässe. Ermöglicht wird dies durch die visuelle Natur von Low-Code: Prozess- und Anwendungsmodelle lassen sich durch Visualisierung leichter entwerfen und Designentscheidungen können zügig iteriert werden.
Enterprise-Low-Code-Plattformen mit eingebetteten KI-Funktionen können auch komplexe Entwicklungsaufgaben durch die Automatisierung von Routineprozessen, und die Generierung von Code-Vorschlägen rationalisieren. Darüber hinaus werden die Entwicklungszyklen durch ein schnelles Prototyping, Testen und Skalieren verbessert, was für den Erfolg von Start-ups unerlässlich ist.
Mit dem umsichtigen Einsatz von KI zum unternehmerischen Erfolg
Die Kombination aus Low-Code und KI hat somit viele Vorteile für Start-ups: komplexe manuelle Programmierung wird reduziert, die Kollaboration von gemischten Teams gefördert, indem nicht-technische Mitarbeitende befähigt werden sich einzubringen; das entlastet die IT-Abteilung und Unternehmen können schneller auf sich ändernde Anforderungen reagieren. Durch die Verringerung des Zeitaufwands können sich Mitarbeitende mehr auf ihre Kreativität und die strategische Planung konzentrieren, was sich positiv auf die Innovationsgeschwindigkeit und deren Umfang auswirkt. Mit der gewonnenen Agilität und verbesserten Effizienz können Start-ups mit größeren und reiferen Unternehmen konkurrieren, weil sie sich schnell an Marktveränderungen und Kund*innenbedürfnisse anpassen.
Die Verwendung von KI in der Programmierung ist entscheidend für Start-ups, um ihre Innovationen zu katalysieren. Sie müssen sich jedoch der Grenzen von KI bewusst sein und die KI-gestützte Programmierung unter Berücksichtigung von Governance und Sicherheit angehen. Gerade für Start-ups, die ein schnelles Wachstum anstreben, kann dieser ausgewogene Ansatz ein entscheidender Erfolgsfaktor sein.
Der Autor Tim Herden ist Director Solution Architecture DACH & Nordics bei bei Mendix. Das Siemens-Unternehmen ist die einzige Low-Code-Plattform, die für die gesamte Komplexität der Softwareentwicklung in Unternehmen ausgelegt ist.
Diese Artikel könnten Sie auch interessieren:
eeden: Die Alchemie der Altkleider
Das Münsteraner Unternehmen eeden verwandelt Textilmüll in hochwertige Rohstoffe. Mit Millioneninvestments baut das Team um Steffen Gerlach und Tobias Börnhorst nun die erste Demonstrationsanlage auf.
Steffen Gerlach saß entspannt mit seinem Schulfreund Reiner Mantsch auf einer Couch in einer Kölner Wohngemeinschaft. Mantsch hatte zuvor an der Universität in Mönchengladbach Textiltechnik studiert. Er berichtete leidenschaftlich von seinen naturwissenschaftlichen Forschungen zur Kreislaufwirtschaft. Dieses Gespräch veränderte Gerlachs gesamte berufliche Planung radikal. Mantsch suchte jemanden für die Marktseite seiner technischen Vision. Gerlach war sofort fasziniert von dem ökonomischen Potenzial. Er wollte wissen, ob man daraus ein echtes Unternehmen formen kann. „Das war der eigentliche Startpunkt für eeden. Wir entschieden uns für einen vollen Fokus auf das Projekt. Und wir wollten das Recyclingproblem der Branche grundlegend lösen“, erinnert sich Gerlach.
Der langsame Weg zum technologischen Durchbruch
Es gab keinen plötzlichen Heureka-Moment in einem winzigen und improvisierten Labor. Die Entwicklung war eher eine gezielte Suche nach einer Problemlösung. Mantsch war früher Leistungssportler und brachte den nötigen Fokus mit. Er sah den Frust seiner Kommilitonen nach Praktika in der Industrie. Die Branche wirkte starr und wenig dynamisch für junge Talente. Das Duo suchte stattdessen nach den Megatrends der Zukunft. „Die Kreislaufwirtschaft kristallisierte sich schnell als das zentrale Thema heraus. Ich habe die Marktseite intensiv analysiert und viele Gespräche geführt“, so Gerlach. Er erkannte die Verknüpfungen zwischen technischer Machbarkeit und ökonomischen Anforderungen. Die Suche nach dem technologischen Sweetspot dauerte Monate. Am Anfang stand lediglich die reine Faszination für das Recycling. Es war ein schleichender Prozess mit vielen Etappenentscheidungen.
Die wachsende Last der globalen Fast Fashion
Das Umweltproblem der globalen Textilindustrie ist mittlerweile gewaltig. Die Branche verdoppelt ihren Durchsatz alle 20 bis 30 Jahre. Jährlich werden mittlerweile mehr als 120 Mio. Tonnen Textilien produziert. Nach Angaben der Ellen MacArthur Foundation werden weltweit ungefähr zwei Drittel dieser Mengen praktisch direkt nach der Nutzung entsorgt; sie landen auf riesigen Deponien oder werden ungenutzt verbrannt. In Deutschland steht das klassische Rücknahmesystem laut Experten vor dem Kollaps. Es gibt nach seiner Aussage derzeit eine gestiegene Anzahl an Insolvenzen bei Sammel- und Sortierbetrieben. Die Qualität der Kleidung sinkt durch den Trend zur Fast Fashion massiv. Der Wiederverkauf der gebrauchten Ware lohnt sich oft nicht mehr. Neuware aus Asien ist meistens günstiger als Second Hand-Stücke aus Europa. In Deutschland verursacht die Entsorgung einer Tonne Altkleider zudem Kosten – das Material wird somit zur finanziellen Belastung für die Sammel- und Sortierbetriebe.
Chemische Trennung als industrieller Schlüssel
Das Unternehmen aus Münster setzt genau an diesem Punkt an. Die Technologie ermöglicht die Trennung von Baumwolle und Polyester und macht beide Materialien wieder nutzbar. Das ist entscheidend für den Erfolg der Kreislaufwirtschaft. Die meisten Textilien bestehen heute aus komplexen Mischgeweben. Gerlach erklärt, dass das Unternehmen aus dem Abfall eine hochwertige Cellulose und chemische Bausteine für neues Polyester gewinnt. Die Cellulose dient als sauberes Vorprodukt für die neue Faserherstellung. Das Polyester wird in seine Grundbausteine zerlegt, die für die Herstellung von neuem Polyester verwendet werden können. „Wir stellen aus Baumwolle eine hochwertige Cellulose her und gewinnen aus dem Polyester die chemischen Bausteine zurück“, sagt Gerlach. Beide Materialströme können direkt wieder in der Textilproduktion eingesetzt werden. Damit wird der Kreislauf zwischen Abfall und Kleidung geschlossen. Seit Anfang 2025 hilft zudem eine neue gesetzliche Regelung. Die EU-weite Getrenntsammlungspflicht für Textilabfälle ist in Kraft getreten: Unternehmen dürfen Textilien nun nicht mehr über den Restmüll entsorgen. Das sichert den Zugang zu großen Mengen an Rohstoffen.
Harte Verhandlungen in der Welt des Wagniskapitals
Der Weg von der ersten Idee zur fertig gebauten Industrieanlage ist lang. Deeptech-Unternehmen brauchen oft viel Geduld und Zeit für die Entwicklung. Das erfordert Investoren mit einem sehr langen Atem. In einer frühen Phase kam der High-Tech Gründerfonds an Bord. Auch die NRW.Bank und der TechVision Fonds unterstützen das Vorhaben. Später stiegen Forbion und der Chemiekonzern Henkel als Investor ein. Gerlach erinnert sich im Gespräch an einen intensiven Lernprozess bei den ersten Finanzierungsrunden. Man müsse technische Begeisterung mit harten Umsatzprognosen anreichern. Auch D11Z.Ventures, das Family Office von Dieter Schwarz (Lidl/Kaufland), investierte in das Unternehmen. Die Investoren verstehen laut Gerlach die Entwicklungszyklen und Skalierung von Deeptech-Unternehmen. Mittlerweile flossen über 20 Mio. EUR an Kapital in die Firma. Dieses Geld ermöglicht nun den nächsten großen Schritt.
Ein neues Team für die industrielle Skalierung
Das Start-up ist mittlerweile den Kinderschuhen entwachsen. In Münster entsteht derzeit eine industrielle Demonstrationsanlage. Gerlach erinnert sich an den Moment der Schlüsselübergabe: Zuerst wirkte die leere Halle riesig auf das Team. Inzwischen planen die Ingenieure bereits jeden Zentimeter der Fläche. Das Team ist auf über 25 Köpfe gewachsen. Es ist eine Mischung aus jungen Talenten und erfahrenen Kräften. Viele Mitarbeitende wechselten von großen Konzernen wie BASF nach Münster. Gerlach beobachtet eine große Lust auf die Arbeit an innovativen Prozessen. Die flachen Hierarchien im Unternehmen ziehen Experten an. Er schätzt das Know-how dieser Fachkräfte für den Anlagenbau. Erfahrene Chemiker bringen eine neue Qualität in die Prozesse. Die Zusammenarbeit zwischen Alt und Jung funktioniert hervorragend.
Führung zwischen Agilität und unternehmerischer Verantwortung
Die Unternehmenskultur hat sich mit der Größe weiterentwickelt. Gerlach betont, dass viele Impulse direkt aus der Belegschaft kommen. So wurde die Regelung für die Präsenz im Büro gemeinsam erarbeitet. Die Mitarbeitenden wünschten sich feste Tage für den Austausch. „Die schönsten Tage sind jene mit viel Begegnung“, berichtet Gerlach. Die bürokratischen Pflichten eines Geschäftsführers gehören einfach dazu. Trotzdem bleibt die Mission der Firma der wichtigste Treiber. Die Motivation im gesamten Team sei extrem hoch. Jeder packt an und treibt das Unternehmen voran. Der Spagat zwischen Entwicklung und Business ist fordernd. Gerlach jedoch genießt diese tägliche Herausforderung sehr.
Der Standort Deutschland als Zentrum für Innovation
Viele Fachleute kritisieren die Bedingungen für die Chemieindustrie. Hohe Energiekosten belasten die traditionsreichen Unternehmen stark. Gerlach sieht das differenzierter aus der Perspektive von innovativen Start-ups: „Für die Entwicklung neuer Technologien ist der Standort Deutschland weiter exzellent. Und die Qualifikation der Technologen ist hervorragend. Die aktuelle Krise führt bei uns auch zu Bewerbungen von erfahrenen Talenten aus der chemischen Industrie – die hätte es vor einigen Jahren in der Menge nicht gegeben.“ Die vorhandene Infrastruktur sei ein klarer Vorteil. Auch Konzerne beobachten solche Innovationen genau. Die Nähe zum Mittelstand fördert zudem die Skalierung. Für die beiden Gründer ist die aktuelle Produktionsanlage nur ein Anfang. Langfristig soll die Technologie weltweit lizenziert werden; überall auf der Welt fällt schließlich Textilmüll an. Die Kombination aus Ingenieurskunst und Skalierung ist das Ziel. Auch die aktuellen Investoren von eeden sehen dieses globale Potenzial. Das Unternehmen will beweisen, dass sich Kreislaufwirtschaft lohnt. Deutschland bleibt dafür ein wichtiger Ankerpunkt.
Gründer*in der Woche: Picturo – Local Photography, European Scale
Mit der Picturo Photography UG baut Jean Witt eine europaweite Plattform zur einfachen Suche nach lokalen Fotograf*innen auf. Ziel ist es, einen stark fragmentierten Markt zu bündeln, Fotograf*innen sichtbar zu machen und Nutzer*innen eine zentrale Anlaufstelle zu bieten. Mehr dazu im Interview mit dem Gründer.
Picturo klingt nach dem großen Bild. Beschreibe uns deine Idee in wenigen Sätzen – dein Elevator Pitch!
Picturo ist ein internationaler Marktplatz, der die Suche nach lokalen Fotograf*innen weltweit radikal vereinfacht. Statt unübersichtlicher Recherche auf Social Media oder Google bietet Picturo eine zentrale, standortbasierte Plattform. Nutzer*innen finden mit wenigen Klicks die passenden Fotograf*innen für jeden Anlass, während diese wiederum gezielt neue Kund*innen gewinnen. So professionalisiert Picturo einen stark fragmentierten Markt und macht die Suche nach Fotografie-Dienstleistungen so einfach wie die Buchung eines Hotels.
Es gibt bereits viele Plattformen für Fotograf*innen und Bilddatenbanken. Was war der konkrete Auslöser oder gar Pain Point, den du selbst erlebt hast, der dich dazu gebracht hat, Picturo zu gründen?
Der konkrete Auslöser war meine eigene Erfahrung als Reisender. Die Suche nach lokalen Fotografinnen lief fast immer über Direktnachrichten auf Social Media oder über einzelne Webseiten. Dabei musste man jedes Mal Preise, Verfügbarkeiten und Leistungen separat anfragen – oft ohne klare Antworten oder Vergleichsmöglichkeiten. Dieser Prozess ist zeitaufwendig, intransparent und für Nutzer*innen extrem umständlich. Gleichzeitig wurde deutlich, dass es für Fotograf*innen genauso ineffizient ist, jede Anfrage einzeln zu beantworten. Picturo ist aus genau diesem Pain Point entstanden: dem Wunsch nach einer zentralen, einfachen und transparenten Lösung für die Suche nach lokalen Profis.
Ihr sitzt in Esens, also im schönen Ostfriesland, habt aber den Anspruch, Fotograf*innen in „ganz Europa“ zu vernetzen. Wie baut man von einem eher ländlichen Standort aus eine so internationale Community auf?
Unser Standort in Ostfriesland ist für uns kein Nachteil, sondern Teil unserer Geschichte. Picturo ist von Anfang an als digitale Plattform konzipiert worden, bei der der Standort des Teams keine Rolle für die Reichweite spielt. Der Bedarf bei Fotograf*innen in ganz Europa ist so groß, dass Anfragen zur Teilnahme an unserer Plattform bereits heute organisch entstehen. Viele Fotograf*innen suchen gezielt nach Möglichkeiten, international sichtbar zu werden und neue Kund*innen zu erreichen. Durch klare Positionierung, einfache Nutzung und einen starken Fokus auf lokale Sichtbarkeit schaffen wir Vertrauen und Wachstum – unabhängig vom Standort. So bauen wir Schritt für Schritt eine internationale Community auf: digital, skalierbar und nachhaltig.
Euer Portfolio ist breiter als das der Konkurrenz. Wie genau funktioniert das Geschäftsmodell? Zahlt der/die Kund*in pro Bild oder ist es ein Abo-Modell?
Der Kern von Picturo liegt klar auf der Vermittlung und Sichtbarkeit von professionellen Fotografinnen. Unser Geschäftsmodell basiert auf abonnementbasierten Mitgliedschaften für die Fotografinnen. Für Kund*innen ist die Nutzung der Plattform vollständig kosten- und provisionsfrei; ebenso fallen keine Buchungsprovisionen an. Fotograf*innen zahlen eine monatliche Subscription für Sichtbarkeit, Reichweite und den Zugang zu qualifizierten Anfragen. Dieses Modell schafft Transparenz, vermeidet Reibung im Buchungsprozess und ist für beide Seiten fair und planbar.
Ihr bietet auch einen Guide zu lokalen Hotspots (Bars, Cafés) an. Ist das „nur“ ein Content-Marketing-Tool, um Traffic auf die Seite zu bekommen, oder plant ihr Kooperationen mit der Gastronomie als weitere Einnahmequelle?
Der Guide zu lokalen Hotspots ist aktuell in erster Linie als Mehrwert für Nutzer*innen gedacht und unterstützt den organischen Traffic sowie die Sichtbarkeit der Plattform. Gleichzeitig sehen wir darin großes strategisches Potenzial über reines Content-Marketing hinaus. Perspektivisch planen wir, diesen Bereich für Kooperationen mit lokalen Partnern wie Cafés, Bars oder Hotels zu öffnen.
Eine Plattform europaweit zu skalieren, kostet Geld und Ressourcen. Wie habt ihr euch bisher finanziert?
Aktuell ist Picturo vollständig eigenfinanziert und damit komplett gebootstrapped. Die Entwicklung der Plattform sowie der Markteintritt in erste Länder wurden aus eigenen Mitteln realisiert. Nun befinden wir uns an einem Punkt, an dem wir gezielt nach strategischen Partnern und Investor*innen suchen, um die nächste Skalierungsstufe zu erreichen. Ziel ist es, gemeinsam schneller zu wachsen und das internationale Potenzial von Picturo voll auszuschöpfen.
Wenn du auf die Zeit seit der Gründung der UG zurückblickst: Was war bisher der wichtigste Meilenstein, bei dem du wusstest: „Okay, das hier funktioniert wirklich“?
Der wichtigste Meilenstein war die Einführung des Abo-Modells. Trotz der Umstellung auf ein kostenpflichtiges Angebot lief das Onboarding ungebrochen weiter und neue Fotograf*innen traten der Plattform bei. In diesem Moment wurde klar, dass Picturo ein echtes Problem löst und einen echten Mehrwert bietet. Die Bereitschaft, für Sichtbarkeit und Reichweite zu bezahlen, hat bestätigt, dass der Bedarf im Markt vorhanden ist. Ab diesem Punkt war klar: Das Modell funktioniert.
Wo siehst du Picturo in drei Jahren?
In drei Jahren ist Picturo in vielen EU-Ländern aktiv und als internationaler Marktplatz für lokale Fotograf*innen etabliert. Gemeinsam mit starken Partnern ist die Plattform breit ausgerollt und für Nutzer*innen die erste Adresse bei der Fotografensuche.
Und last but not least: Welche Tipps würdest du anderen Gründer*innen geben, die gerade am Anfang stehen – vielleicht auch jenen, die nicht in den großen Hubs wie Berlin oder München sitzen?
Der wichtigste Tipp ist, sich konsequent an einem echten Problem zu orientieren und früh mit Nutzer*innen zu sprechen. Der Standort ist dabei zweitrangig – entscheidend sind Fokus, Umsetzungsstärke und Durchhaltevermögen. Gerade außerhalb großer Startup-Hubs kann man oft ruhiger, effizienter und näher am Markt arbeiten. Wichtig ist, früh zu testen, Feedback ernst zu nehmen und das Produkt Schritt für Schritt zu verbessern. Netzwerke, Partnerschaften und digitale Sichtbarkeit sind heute wichtiger als ein physischer Standort.
Hier geht’s zu Picturo
Das Interview führte StartingUp-Chefredakteur Hans Luthardt
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
Strategischer Fokus auf Multimorbidität: Oska Health sichert sich 11 Mio. Euro
Das Frankfurter HealthTech-Unternehmen Oska Health hat eine Finanzierungsrunde über 11 Millionen Euro abgeschlossen. Angeführt von Capricorn Partners und SwissHealth Ventures, adressiert das Start-up die Versorgungslücke bei chronisch Kranken. Ein Blick auf das Geschäftsmodell, die personelle Aufstellung und die Herausforderungen im regulierten Gesundheitsmarkt.
In der aktuellen Seed-Runde haben sich neben den Lead-Investoren Capricorn Partners und SwissHealth Ventures auch Revent, Calm Storm, BMH, LBBW Venture Capital, GoHub Ventures und Aurum Impact beteiligt. Mit dem frischen Kapital plant Oska Health, die technologische Infrastruktur auszubauen und das Versorgungsmodell, das bereits mit über 20 Krankenkassen (darunter die KKH) etabliert wurde, in die Breite zu bringen.
Adhärenz als wirtschaftlicher Hebel
Der Fokus des 2022 gegründeten Unternehmens liegt auf sog. multimorbiden Patient*innen – Menschen, die gleichzeitig an mehreren chronischen Leiden wie Nierenerkrankungen (CKD), Diabetes und Bluthochdruck leiden. Ein Kernproblem in diesem Bereich ist die mangelnde Therapietreue im Alltag (Adhärenz). Statistiken des Gesundheitswesens belegen, dass etwa 50 % der chronisch Kranken ihre Medikamente nicht vorschriftsmäßig einnehmen. Oska Health setzt hier auf eine hybride Betreuung: Ein digitaler Begleiter (App) wird durch persönliches Coaching via Video und Chat ergänzt.
Ziel dieses Ansatzes ist die Reduktion von vermeidbaren Komplikationen und teuren Krankenhausaufenthalten. Für die Kostenträger stellt dies ein mathematisches Optimierungsproblem dar: Übersteigen die Kosten für die digitale Betreuung die Einsparungen durch verhinderte Akutereignisse? Oska Health scheint hier erste überzeugende Daten geliefert zu haben, wie die Beteiligung des Venture-Arms der Schweizer CSS Versicherung (SwissHealth Ventures) signalisiert.
Das Gründungsteam: Erfahrung aus der Industrie
Ein wesentliches Merkmal von Oska Health ist der „Founder-Market-Fit“. Die Gründer*innen kommen nicht aus der klassischen Software-Entwicklung, sondern bringen tiefgreifende Branchenerfahrung aus dem Gesundheitssektor mit:
- Niklas Best (CEO): War zuvor über zehn Jahre in der Branche tätig, unter anderem als Director of Digital Products bei Fresenius Medical Care. Er verfügt über einen Executive MBA der Universität St. Gallen.
- Dr. Malte Waldeck (CFO/COO): Der promovierte Wirtschaftswissenschaftler (RWTH Aachen) sammelte Erfahrungen im Investmentbanking (Metzler) sowie in Führungspositionen bei DaVita Kidney Care und der D.med Healthcare Group.
- Claudia Ehmke (CPO): Verantwortet mit langjähriger Erfahrung in der Tech-Szene (u.a. bei der Design-Agentur ustwo in London) die Nutzerschnittstelle und Produktstrategie.
Diese personelle Konstellation dürfte den Zugang zu den oft schwer zugänglichen Entscheidungsträgern der Gesetzlichen Krankenversicherungen (GKV) erleichtert haben.
Strukturelle Herausforderungen und Wettbewerb
Trotz des Kapitalzuflusses steht das Unternehmen vor den typischen Hürden des deutschen Digital-Health-Marktes. Im Gegensatz zu Digitalen Gesundheitsanwendungen (DiGA), die einen standardisierten Zulassungsweg gehen, nutzt Oska Health sog. Selektivverträge. Dieser Weg erfordert einen deutlich höheren individuellen Vertriebsaufwand pro Krankenkasse, ermöglicht aber eine tiefere Integration in bestehende Versorgungspfade.
Ein kritischer Faktor bleibt die Skalierbarkeit. Ein Modell, das auf menschliches Coaching setzt, hat naturgemäß höhere Grenzkosten als eine reine Software-Lösung. Oska Health begegnet dem durch den Einsatz von KI, um administrative Aufgaben der Coaches zu automatisieren. Der Erfolg der nächsten Jahre wird davon abhängen, ob die technologische Unterstützung die Effizienz so weit steigert, dass eine flächendeckende Versorgung bei gleichbleibender Marge möglich ist.
Zudem ist das Marktumfeld für Chronic Care Management zunehmend besetzt. Während spezialisierte Anbieter wie Oviva (Ernährung) oder Mika (Onkologie) einzelne Nischen besetzen, positioniert sich Oska Health durch die Fokussierung auf die komplexere Multimorbidität. Dies vergrößert zwar die Zielgruppe, erhöht jedoch gleichzeitig die regulatorischen Anforderungen an das Produkt als zertifiziertes Medizinprodukt.
Einordnung für den Start-up-Sektor
Die Finanzierung von Oska Health zeigt einen deutlichen Trend im HealthTech-Investment: Kapital fließt verstärkt in Modelle, die nicht nur eine digitale Lösung bieten, sondern eine nachweisbare Integration in die Abrechnungsstrukturen des Gesundheitssystems vorweisen können. Für Gründer*innen im Bereich Medtech verdeutlicht der Fall Oska, dass Branchenexpertise und die Wahl des richtigen Erstattungsweges oft wichtiger sind als die reine technologische Innovation. Ob sich der hybride Ansatz langfristig gegen rein algorithmische Lösungen durchsetzt, wird an den klinischen und ökonomischen Langzeitdaten der Krankenkassen-Partner gemessen werden.
Rechtsruck auf Social Media: Was Start-ups jetzt tun müssen
Hass und rechte Narrative dominieren zunehmend die Kommentarspalten, da Social-Media-Algorithmen diese Polarisierung mit Reichweite belohnen. Was du wissen solltest und wie du aktiv gegensteuern kannst.
Was früher als Randphänomen galt, ist heute leider Alltag: Kommentarspalten auf Instagram, TikTok und Facebook werden zunehmend von rechten Narrativen, gezielten Provokationen und orchestrierten Empörungswellen geprägt. Gleichzeitig verstehen sich die meisten Plattformen längst nicht mehr primär als „soziale Netzwerke“, sondern als Entertainment-Plattformen. TikTok kommuniziert das beispielsweise schon länger sehr offen. Dadurch verlagert sich der „soziale“ Austausch in Direktnachrichten, Gruppenchats – und vor allem in die Kommentare.
Was viele junge Unternehmen jedoch unterschätzen: Nutzer*innen klicken oft schon nach wenigen Sekunden auf die Kommentare, während das Video noch läuft. Der Diskurs unter dem Content ist somit zum eigentlichen Content geworden. Und die Plattformen belohnen genau das.
Warum Polarisierung algorithmisch attraktiv ist
Algorithmen priorisieren Interaktionen – und Kommentare zählen mehr als Likes. Reißerische Headlines und Clickbait funktionieren seit jeher. Neu ist allerdings, dass auch Empörung, Wut und Zuspitzung algorithmisch belohnt werden, weil sie zu mehr Kommentaren führen. Mehr Kommentare bedeuten mehr Reichweite. Mehr Reichweite wiederum zieht neue Kommentierende an.
Für Marketer entsteht eine paradoxe Situation: Negative und hasserfüllte Kommentare können die Performance eines Posts steigern. Ironischerweise sorgen Hasskommentare unter Umständen dafür, dass genau dieser Beitrag noch stärker ausgespielt wird. Doch diese Dynamik hat ihren Preis. Sie normalisiert radikale Narrative in Mainstream-Feeds. Dazu haben Plattformen wie TikTok ihre Moderation oder Meta den unabhängigen Faktencheck leider zuletzt eher eingeschränkt als ausgeweitet. Damit müssen Start-ups und ihre Marketingteams selbst mehr Verantwortung übernehmen.
Wenn der Rechtsruck im Community Management ankommt
In unserer Social-Media-Boutique-Beratung erleben wir die Folgen täglich. Ob sexualisierte Kommentare unter einem Video mit einer körperbetont gekleideten Darstellerin, das Leugnen des Klimawandels unter Nachhaltigkeits-Content sowie Veganismus-Bashing von Fleisch-Ultras oder rassistische und islamophobe Kommentare unter Beiträgen einer Expertin mit Kopftuch: Die Intensität hat erheblich zugenommen.
Besonders letzteres war für mein Team ein Wake-up-Call. In unserer Bubble in Berlin-Kreuzberg spüren wir gesellschaftliche Verschiebungen oft weniger direkt. Doch in den Kommentarspalten ist der Rechtsruck real – und emotional belastend, nicht nur für die Betroffenen, sondern auch für das Community-Management-Team. Start-ups sollten daher klare Leitlinien haben, wie sie auf Social Media mit Hass umgehen.
Schutz zuerst und don’t feed the trolls
Das Wichtigste zuerst: Die Darsteller*innen müssen geschützt werden. Im Idealfall bekommen sie von der Hasswelle nichts mit. Für Social-Media-Teams bedeutet das: zwei- bis dreimal tägliche Moderationsrunden, klare Standard Operating Procedures und konsequentes Verstecken und Melden von Hasskommentaren.
„Don’t feed the trolls“ bleibt eine valide Grundregel. Öffentliche Diskussionen mit klar provokativen Accounts führen selten zu Einsicht – oft nur zu weiterer Eskalation oder dazu, dass Gleichgesinnte mobilisiert werden. Solche Posts sollten sofort versteckt, gemeldet und dokumentiert werden. Bei grenzwertigen Kommentaren kann es sinnvoll sein, sie teilweise stehen zu lassen, wenn die Community diesen Äußerungen konstruktiv widerspricht. Denn eine starke Community kann selbstregulierend wirken und stärkt das Wir-Gefühl.
Eine weitere sehr gute Maßnahme ist, einen eigenen Kommentar nach folgendem Motto zu verfassen: "Wir als Marke X stehen für XYZ. Jegliche Form von Hass wird von uns nicht toleriert. Dennoch haben wir uns entschlossen, dahingehende Äußerungen unter diesem Post stehen zu lassen, weil das Löschen gegen unsere Werte verstößt. Jedoch melden wir jeden einzelnen Hasskommentar." Dies zeigt eine klare Haltung und kann oben angepinnt werden.
Ist die Kommentarflut jedoch nicht mehr moderierbar, empfiehlt es sich, die Kommentarfunktion in Ausnahmefällen zu deaktivieren oder den Post zu archivieren. Solch eine Maßnahme mussten wir beispielsweise bei einem Projekt ergreifen, bei dem die Expertin ein Kopftuch trug, da die islamophoben Kommentare regional leider massiv zunahmen. So mussten wir die Performance-Ads mit ihr in bestimmten Regionen aussetzen – in Berlin funktionierten sie hervorragend, in Teilen Sachsens nicht. Das ist natürlich bitter.
Kolleg*innen aus anderen Social-Media-Agenturen haben mir zudem von früheren Workarounds berichtet. So ließen sich in Ads bestimmte interessenbasierte Zielgruppen ausschließen, wie etwa Personen mit Affinitäten zu rechten Bands. Doch diese Targeting-Möglichkeiten wurden zuletzt deutlich eingeschränkt. Start-ups stehen damit oft schutzloser da als noch vor wenigen Jahren.
Zwischen Haltung und Algorithmus
Auf den gesellschaftlichen Rechtsruck haben junge Unternehmen leider nur einen kleinen Einfluss. Sehr wohl können sie allerdings beeinflussen, wie sie auf ihren Social-Media-Kanälen damit umgehen. Leitlinie sollten folgende Punkte sein:
- Moderation professionalisieren: Klare Prozesse etablieren, statt situativer Reaktionen.
- Darsteller*innen schützen: Sowohl psychologisch als auch operativ.
- Haltung zeigen: Sichtbar, konsistent, nicht nur in Krisenmomenten.
- Community stärken: Echte Unterstützer:innen aktivieren, statt nur Reichweite zu jagen.
- Reichweite nicht über Werte stellen: Selbst wenn Hass kurzfristig Performance bringt.
Die Entwicklung bei TikTok und Co. zeigt, dass Kommentarspalten längst keine Nebensache mehr sind. Sie sind Diskursräume – und damit politische Räume. Start-ups, die auf Social Media vertreten sind, müssen sich darüber klar sein. Sie sind nicht mehr nur reine Marketingkanäle, sondern moderieren öffentliche Debatten. Und das ist eine Verantwortung, die sie nicht an den Algorithmus delegieren dürfen.
Der Autor Mirco Gluch ist Gründer der Boutique Social Media-Beratung Piggyback, KI-Experte und Macher des Onlinekurses „AI für Social Media".
12 Mio. USD für Secfix: Vom simplen Compliance-Tool zur europäischen Security-Plattform
Die regulatorischen Daumenschrauben für Europas Unternehmen ziehen sich an. Das Münchner Start-up Secfix liefert die passenden Antworten – und sichert sich nun in einer überzeichneten Series-A-Runde 12 Millionen US-Dollar.
Heute verkündet das Münchner Start-up Secfix einen bedeutenden Meilenstein: Das Unternehmen, das sich als eine der führenden End-to-End Security-Compliance-Plattformen in Europa positioniert, hat eine überzeichnete Series-A-Finanzierung in Höhe von 12 Millionen US-Dollar erfolgreich abgeschlossen. Angeführt wird die Kapitalmaßnahme von Alstin Capital. Flankiert wird der Lead-Investor von Bayern Kapital sowie dem Bestandsinvestor neosfer, der Innovationseinheit der Commerzbank-Gruppe.
Von der TU München zur europäischen Expansion
Hinter Secfix stehen die CEO Fabiola Munguia sowie ihre Mitgründer Grigory Emelianov (CTO) und Branko Džakula (CISO). Die Wurzeln des Start-ups reichen an die Technische Universität München (TUM) zurück, wo Munguia und Emelianov studierten. Zunächst startete das Team 2021 mit Requestee, einem Marktplatz für ethische Hacker und Penetrationstests – eine Gründungsgeschichte, über die StartingUp bereits ausführlich in einem Porträt berichtet hat.
Doch im direkten Austausch mit Start-ups und dem Mittelstand erkannten die Gründer*innen durch gutes Zuhören am Markt ein weitaus gravierenderes, strukturelles Problem: Europäische Unternehmen standen vor enormen Hürden, da Security-Zertifizierungen bis zu 18 Monate dauerten und extrem viel manuellen Aufwand erforderten. Dieser langsame und teure Prozess hemmte das Wachstum massiv, denn ohne die passenden Nachweise verzögerten sich wichtige Vertragsabschlüsse, was teilweise zu Millionenverlusten führte. Das Team verinnerlichte eine wichtige unternehmerische Lektion: Compliance ist kein reines IT-Thema, sondern ein entscheidender Wachstumshebel, um Enterprise-Deals überhaupt abschließen zu können. Aus dieser Erkenntnis heraus vollzog das Team einen strategischen Pivot zu Secfix (sie offizielle Umfirmierung und Rechtsformwandlung erfolgte im Januar 2023), um die Prozesse für Standards wie ISO 27001, den EU AI Act, NIS2, DSGVO und SOC 2 grundlegend zu automatisieren.
Vom reinen Tool zum strategischen Partner
Was bei Secfix ursprünglich als reines GRC-Automatisierungstool (Governance, Risk, Compliance) begann, hat sich laut Unternehmensangaben mittlerweile zu einer KI-gestützten End-to-End Security-Compliance-Plattform in Europa weiterentwickelt. Dies ist eine direkte Antwort auf die Marktdynamik: Mit Vorgaben wie ISO 27001, NIS2, DORA und dem EU AI Act steigt der regulatorische Druck auf europäische Firmen derzeit erheblich an. Um in diesem komplexen Umfeld nicht nur bloße Checkbox-Compliance zu betreiben, vereint Secfix heute Compliance-Automatisierung mit einem KI-nativen "CISO-as-a-Service". Das Portfolio deckt dabei weite Teile der Sicherheitsinfrastruktur ab und reicht von kontinuierlichem Monitoring, Incident-Management und Access-Management bis hin zu Cloud-Security-Scanning, Penetrationstests und vollumfänglicher Security-Führung.
Dieser ganzheitliche Ansatz scheint im Markt auf Resonanz zu stoßen: Laut Secfix können Kund*innen die Dauer ihrer Zertifizierungsprozesse durch die Plattform um bis zu 90 Prozent verkürzen. Gleichzeitig verweist das Start-up auf eine Audit-Erfolgsquote von 100 Prozent. Aktuell vertrauen bereits Hunderte von Kund*innen in über 15 europäischen Ländern auf den Service, darunter renommierte Unternehmen wie WorkMotion, Veremark, Orianda und Trafigura sowie Banken und Energieunternehmen.
Die nächsten Schritte: Europa im Visier und „Smart Money“ an Bord
Mit dem frischen Kapital will Secfix nun die Expansion in ganz Europa gezielt vorantreiben. Zudem investiert das Unternehmen in die Weiterentwicklung seiner KI-gestützten Automatisierung und skaliert das CISO-as-a-Service-Angebot für die wachsende Nachfrage im Mid-Market.
Die strategische Neuausrichtung bringt Fabiola Munguia, die CEO des Münchner Unternehmens, wie folgt auf den Punkt: „Wir haben damit begonnen, Unternehmen schnell und unkompliziert zur Zertifizierung zu bringen. Heute werden wir zu ihrem langfristigen Security- und Compliance-Partner für alles, was danach kommt. Unsere Vision ist es, Secfix als führende End-to-End Security-Compliance-Plattform Europas zu etablieren, die Unternehmen von der ersten ISO-27001-Zertifizierung an durch ihre gesamte Security- und Compliance-Reise begleitet.“
Für das weitere Wachstum setzt Secfix dabei ganz bewusst auf "Smart Money". Mit dem Lead-Investor Alstin Capital holt sich das Start-up einen Münchner Fonds an Bord, der stark auf B2B-Software fokussiert ist. Besonders wertvoll dürfte der „All-in“-Ansatz des Investors sein: Neben Kapital unterstützt Alstin die Gründerteams aktiv durch Sales-Coaching, Go-to-Market-Strategien sowie den Zugang zu relevanten Industriekontakten.
Verantwortung ohne Geländer
Serie: Führen im Start-up, Teil 2: Warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind.
Ein Start-up steht vor einem Richtungswechsel. Das Produkt performt solide, aber nicht stark genug für die nächste Finanzierungsrunde. Der Lead-Investor empfiehlt einen klaren Pivot. Im Team gibt es Widerstand. Einige sehen das Risiko, andere fürchten den Stillstand. Es wird diskutiert. Analysen werden geteilt. Szenarien durchgerechnet. Und doch wissen alle: Am Ende wird eine Person entscheiden.
Genau hier zeigt sich die besondere Qualität von Führung im Start-up – und ihre besondere Belastung.
Einsamkeit ist keine Stimmung – sie ist Struktur
Von außen wirken junge Unternehmen kommunikativ dicht. Slack-Channels laufen permanent. Daily-Stand-ups strukturieren den Tag. Investor*innen, Mentor*innen und Berater*innen sind eingebunden. Und dennoch berichten viele Gründer*innen von einem Gefühl, das sie selbst überrascht: innerer Isolation.
Diese Einsamkeit ist selten sozial. Sie ist strukturell.
In der Frühphase ist Verantwortung extrem konzentriert. Anders als in gewachsenen Organisationen gibt es keine Gremien, die Entscheidungen kollektiv tragen. Keine etablierten Hierarchieebenen, die Verantwortung verteilen. Kein operatives Korrektiv, das Last abfedert.
Es gibt Austausch. Aber es gibt kein Geländer.
Wie Verantwortung Wahrnehmung verschiebt
Forschung zur Entscheidungspsychologie zeigt seit Jahren: Wer sich als allein verantwortlich erlebt, bewertet Risiken anders. Mit wachsender wahrgenommener Verantwortung verschieben sich Maßstäbe – oft unbemerkt.
Risiken werden entweder überhöht oder unterschätzt. Kontrolle nimmt zu. Widerspruch fühlt sich schneller bedrohlich an. Nicht aus Arroganz, sondern aus Schutz.
Der/die Gründer*in weiß: Wenn es schiefgeht, wird nicht das Team zitiert. Sondern er bzw. sie.
Das paradoxe Umfeld des Gründens
Start-ups sind laut, schnell, vernetzt. Und dennoch entsteht häufig ein innerer Rückzug.
Warum? Weil Gründer*innen früh lernen, Unsicherheit dosiert zu zeigen. Zu viel Zweifel kann das Team verunsichern. Zu viel Offenheit gegenüber Investor*innen kann als Führungsschwäche interpretiert werden. Zu viel Zögern wirkt im Markt riskant.
Also wird gefiltert. Man teilt Zahlen, aber nicht immer Ambivalenz. Man diskutiert Optionen, aber nicht immer Unsicherheit.
So entsteht Distanz. Nicht geplant. Aber wirksam.
Wenn fehlende Geländer zu Mustern werden
Ohne echtes Korrektiv entwickeln sich typische Dynamiken. Manche Gründer*innen erhöhen ihre operative Kontrolle. Sie involvieren sich in jede Entscheidung, sichern Details doppelt ab, korrigieren Prozesse selbst. Kurzfristig entsteht Stabilität. Langfristig Abhängigkeit.
Andere beschleunigen Entscheidungen, um Druck zu reduzieren. Schnelligkeit ersetzt Reflexion. Das wirkt entschlossen – kann strategisch jedoch inkonsistent werden.
Wieder andere ziehen sich emotional zurück, um handlungsfähig zu bleiben. Sie funktionieren. Aber sie teilen weniger.
All diese Reaktionen sind nachvollziehbar. Und sie verändern das System.
Widerspruch wird vorsichtiger. Kommunikation strategischer. Nähe funktionaler.
Warum Investor*innen kein Geländer sind
Investor*innen sind zentrale Partner*innen. Ihr Fokus liegt naturgemäß auf Wachstum, Skalierung und Rendite. Das ist kein Vorwurf, sondern ihr Mandat.
Ein Geländer im strukturellen Sinn erfüllt jedoch eine andere Funktion: Es sichert die Qualität von Führung – unabhängig von kurzfristiger Performance.
- Ein unabhängiger Beirat mit klarer Rolle.
- Ein Sparringspartner ohne operative Interessen.
- Ein(e) Co-Founder*in, der/die nicht nur loyal, sondern widerspruchsfähig ist.
Nicht zusätzliche Beratung, sondern echte Resonanz.
Der wirtschaftliche Preis von Isolation
Isolation wirkt nicht laut. Sie wirkt kumulativ. Fehleinschätzungen bleiben länger unentdeckt.
Konflikte werden später adressiert. Entscheidungsprozesse werden intransparenter. Vertrauen verschiebt sich.
Viele Gründungskonflikte und spätere Führungskrisen entstehen nicht aus mangelnder Kompetenz, sondern aus nicht geteiltem Druck.
Einsamkeit in der Führung ist kein persönliches Drama. Sie ist ein betriebswirtschaftlicher Risikofaktor.
Ein Perspektivwechsel
Autonomie ist eine Stärke von Gründer*innen. Sie ermöglicht Geschwindigkeit, Mut und Innovation. Doch Autonomie ohne Korrektiv wird zur Belastung.
Die entscheidende Frage lautet nicht, wie viel Verantwortung ein(e) Gründer*in tragen kann, sondern wie bewusst er/sie sie reflektiert.
Wer dauerhaft ohne Geländer führt, trifft Entscheidungen irgendwann nicht mehr strategisch, sondern aus innerem Überlebensmodus. Und das ist selten eine tragfähige Grundlage für nachhaltiges Wachstum.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
Executive Search 2026
Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?
Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.
Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?
Was kann KI leisten – und was nicht?
Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.
Warum der Mensch unverzichtbar bleibt
Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.
Leadership in Zeiten von KI
Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.
Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.
KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung
Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.
Fazit: Executive Search neu denken
Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.
KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.
Agentic AI als Erfolgsgrundlage für Start-ups
KI befeuert den aktuellen Gründungsboom, doch für eine erfolgreiche Skalierung braucht es mehr. Warum Agentic AI auf Basis einer soliden Datenarchitektur zum entscheidenden Erfolgsfaktor für Start-ups wird.
Das Jahr startete für Start-ups mit einer Rekordmeldung: In Deutschland wurden im vergangenen Jahr fast ein Drittel mehr Gründungen verzeichnet. In absoluten Zahlen wurden 2025 insgesamt 3.568 neue Firmen geschaffen – ein neuer Höchststand, wie der Start-up-Verband im Januar verkündete. Dies ist auch der künstlichen Intelligenz (KI) zu verdanken, wie sich beim genauen Hinschauen herausstellt. 853 dieser neuen Unternehmen kommen aus dem Bereich Software. Doch nicht nur sie verwenden KI; bei einer Umfrage gab ein Drittel aller Gründer und Gründerinnen an, dass sie mit KI arbeiten. Dementsprechend sehen die Sprecher des Verbands in der Technologie auch die treibende Kraft hinter dem Start-up-Rekord.
Wirft man einen Blick über den Tellerrand hinaus, so lässt sich feststellen, dass die Start-up-Szene in Europa insgesamt floriert. Der „State of European Tech 2025“-Report im Auftrag von Atomico und anderen schätzt, dass im letzten Jahr Investitionen in Höhe von 44 Milliarden US-Dollar (umgerechnet ca. 38 Mrd. EUR) in diesen Sektor geflossen sind. Geldgeber erwarten inzwischen, dass Start-ups mit KI und Deep Tech arbeiten, so der Report. Demnach flossen auch 36 Prozent der europäischen Start-up-Investitionen in genau diese beiden Felder.
Das Gründungsumfeld könnte also kaum besser sein. Doch ein Rekord an Start-ups und steigende Investitionssummen bedeuten nicht zwangsläufig auch eine einfache Skalierung der Geschäftsmodelle. Viele – zu viele – Start-ups scheitern nach erfolgreichen ersten Jahren an der Weiterentwicklung ihres Geschäfts. Neben einer Reihe üblicher Herausforderungen stehen vor allem Bürokratie, Fragen zur Datenhoheit und ein Betrieb über Landesgrenzen und Wirtschaftszonen hinweg im Vordergrund. Start-ups müssen nachweisen, dass ihre Nutzung von KI auf soliden, regulierten Datenfundamenten basiert und den Compliance-Vorgaben entspricht.
Hier kommt Agentic AI ins Spiel. Die Einbettung von KI-Agenten in den Kern der Betriebsabläufe ist die Antwort auf viele dieser Herausforderungen und wird für das Wachstum im Jahr 2026 von entscheidender Bedeutung sein.
Solide Datenbasis vor KI-Einsatz
Start-ups, die dies erreichen wollen, sollten sich darauf konzentrieren, ihre KI-Nutzung auf einer soliden Datenbasis aufzubauen, deren Fundament eine einheitliche Datenarchitektur ist. Sie tun sich deutlich leichter damit, die dafür nötigen Architekturentscheidungen zu treffen, als etablierte Unternehmen mit entsprechender Legacy-IT. Gründer und Gründerinnen sollten daher von Beginn an darüber nachdenken, wie sie eine starke Datenarchitektur aufsetzen, Silos abbauen und KI als Herzstück ihrer Prozesse einbetten.
Diese Grundlage hilft bei der Einführung von KI-Agenten, damit deren Output auch die Erwartungen erfüllt: Geschäftsprozesse effizienter zu strukturieren und zu optimieren sowie die Entscheidungsfindung zu beschleunigen. Start-ups, die dies umsetzen, werden sich gegen ihre Konkurrenten durchsetzen und letztlich erfolgreich sein.
KI-Agenten als Innovationsbeschleuniger
Indem Start-ups KI-Agenten von Beginn an in den Kern ihrer Geschäftsabläufe integrieren, skalieren sie schneller als mit dem Einsatz von nur einem reinen Large Language Model (LLM). Der Grund dafür liegt in der Standardisierung der Daten, die für KI-Agenten notwendig ist. Auf dieser Grundlage können die Agenten ihre einzigartigen, autonomen Fähigkeiten ausspielen, da sie mit unternehmenseigenen Daten trainiert werden. Vor allem bei Start-ups können Potenziale schnell gehoben werden: Wenn Agenten für bestimmte Aufgaben entwickelt werden, können sie diese auch lösen – egal wie komplex und fachspezifisch sie sein mögen. Stimmt die Datenbasis, lassen sich auch mehrere Agenten miteinander verknüpfen, um sogar noch komplexere Herausforderungen zu bewältigen.
Ein Beispiel dafür ist die mögliche Kooperation zwischen einem Kundensupport-Agenten und einem Prognose-Agenten. Wenn ein Kunde einen Support-Fall auslöst, kann der andere Agent sogleich die Kosten berechnen, was die Kundenzufriedenheit durch eine schnellere Reaktion steigern kann. Für die Skalierung von Start-ups ist ein enges Zusammenspiel der Abteilungen wichtig, um die Geschäftsbeziehungen zu zufriedenen Kunden weiter ausbauen zu können. Der Einsatz von KI-Agenten kann, gepaart mit dem menschlichen Element, begrenzte personelle Ressourcen ausgleichen und eine bessere Serviceleistung ermöglichen, was für ein schnelles Wachstum unabdingbar ist.
Doch nicht nur der Kundenkontakt lässt sich automatisieren, sondern auch eine ganze Reihe von Routinevorgängen in der internen Verwaltung der Firmen selbst. Dies ermöglicht nicht nur dem Management, sondern auch den Investoren, schnell einen fundierten Überblick über Liquidität, Umsatz, Einnahmen und Gewinn zu erhalten. Die Erkenntnisse in Echtzeit führen zu schnellen und datenbasierten Entscheidungen, was für junge Unternehmen Gold wert ist und es ihnen ermöglicht, flexibel zu bleiben.
Die Datenbasis muss stimmen
Für Start-ups sind Probleme beim Datenzugriff ein kritisches Risiko für den Geschäftserfolg. Eine einheitliche, moderne Datenarchitektur ermöglicht die Demokratisierung des Datenzugriffs und löst Datensilos auf. Der Vorteil liegt auf der Hand: Schneller Datenzugriff schafft Transparenz gegenüber Kunden und Aufsichtsbehörden. Darüber hinaus erhöht dies auch das Vertrauen der Mitarbeitenden und schafft ein Gefühl des Zusammenhalts.
Governance ist auch bei der Verwendung von KI-Agenten von entscheidender Bedeutung. Der Druck zur Einhaltung von Vorschriften sollte daher als Vorteil betrachtet werden.
Der Dreiklang aus Datenherkunft, Versionierung und automatisierter Auswertung der Ergebnisse hilft jungen Unternehmen dabei, Governance auf einem soliden Fundament aufzubauen. Die Teams erhalten direkte Transparenz darüber, wie sich die KI-Agenten verhalten, auf welchen Daten sie basieren und wie sie ihre Ergebnisse im Laufe der Zeit verändern. Laufende Bewertungen tragen dazu bei, dass KI-Agenten präziser werden, um genau jene hochwertigen Ergebnisse zu liefern, die Start-ups für die Skalierung ihrer Geschäftsmodelle benötigen. Dies ist besonders wichtig, wenn proprietäre KI-Modelle entwickelt und von der Testphase in die Produktion überführt werden, wobei gesetzliche Vorschriften wie die DSGVO oder der EU AI Act zwingend einzuhalten sind.
Parloa, ein deutsches Start-up-Unternehmen mit einer Bewertung von drei Milliarden US-Dollar, ist ein hervorragendes Beispiel dafür, wie dieser Ansatz in der Praxis aussehen kann: Das Unternehmen hat KI-Agenten zum Kern seines Kundenservice gemacht und gleichzeitig eine einheitliche, kontrollierte Datenbasis aufgebaut, die vollständig mit der DSGVO und dem EU AI Act konform ist. Seine Plattform folgt den Prinzipien des „Privacy by Design“, sodass sensible Kundendaten ohne Kontrollverlust verwendet werden können. Durch die Verwaltung des gesamten Lebenszyklus von KI-Agenten macht Parloa Governance zu etwas Greifbarem und gibt den Teams Klarheit darüber, welche Daten verwendet wurden, wie sich die Agenten verhalten haben und wie sich die Ergebnisse im Laufe der Zeit entwickelt haben. Diese Kombination aus moderner Architektur und starker Governance ermöglicht es den Kunden von Parloa, Zugang zu hochwertigen Daten zu erhalten und die Transparenz für Regulierungsbehörden sowie Endnutzer zu erhöhen – und dennoch KI-gesteuerte Kundeninteraktionen in Umgebungen zu skalieren, in denen Fehler oder Missbrauch inakzeptabel sind.
Fazit
KI-Agenten bieten europäischen Start-ups eine einmalige Gelegenheit, schnell zu wachsen und gleichzeitig Investoren anzuziehen, die bekanntermaßen ihr Geld bevorzugt in Unternehmen investieren, die Wert auf Datenverwaltung, Genauigkeit, Qualität und die Schaffung von echtem Mehrwert durch Technologie legen. Es ist jedoch ein Fehler, sich ohne sorgfältige Überlegungen auf die Einführung von Agenten zu stürzen. Start-ups, die KI-Agenten einsetzen, ohne zuvor eine einheitliche Datenbasis aufzubauen und eine solide Verwaltung sowie Bewertung sicherzustellen, riskieren, mehr Komplexität als Mehrwert zu schaffen. Letztlich werden jene Gründer und Gründerinnen erfolgreich sein, die ihre Geschäftsmodelle branchen- und länderübergreifend skalieren können – hierbei spielt der Einsatz von KI-Agenten bereits jetzt eine entscheidende Rolle.
Der Autor Nico Gaviola ist VP Digital Natives & Emerging Enterprise bei Databricks EMEA.
Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen
Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.
Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.
Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?
Agilität als Superkraft – aber Prototypen reichen nicht
Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.
Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.
Das Fundament: Die Systemarchitektur entscheidet
Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.
Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.
Security by Design: Sicherheit lässt sich nicht nachrüsten
Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.
Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.
Interoperabilität als Schlüssel zum Teamplay
Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.
Vom Zulieferer zum echten Systempartner
Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.
Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.
Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.
ewigbyte: Datenspeicher für die Ewigkeit?
Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.
Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.
In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.
Der Markt: Ein schlafender Riese erwacht
Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.
Lasergravur statt magnetischer Ladung: So funktioniert es
Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.
Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.
Vom Hardware-Verkauf zum „Storage-as-a-Service“
Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.
David gegen Goliath: Das Rennen um das Glas
Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.
Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.
Die technologischen Nadelöhre
Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.
Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).
Digitale Souveränität als Verkaufsargument
Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.
Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.
Medizinal-Cannabis: Zwischen Wachstumsschub und regulatorischer Neujustierung
Zwischen Boom und strengeren Regeln: Der Markt für Medizinal-Cannabis steht nach einem Rekordjahr am Scheideweg. Investoren und Patienten blicken gespannt auf mögliche Gesetzesänderungen für 2026.
2025 war das erste vollständige Geschäftsjahr nach Inkrafttreten des Medizinal-Cannabisgesetzes im April 2024 – und damit ein echter Praxistest für den deutschen Markt. Mit der Entkopplung von Cannabis aus dem Betäubungsmittelrecht und der Vereinfachung der Verschreibung über Telemedizinplattformen änderten sich die Rahmenbedingungen spürbar. Die Effekte ließen nicht lange auf sich warten und resultierten in steigende Verordnungszahlen, stark wachsende Importmengen und einem beschleunigten Ausbau von Versorgungsstrukturen. Doch wie geht es weiter?
Ein Markt im ersten Jahr nach der Reform
Die Importzahlen verdeutlichen die Dynamik. Während 2023 noch rund 30 Tonnen medizinisches Cannabis nach Deutschland eingeführt wurden, entwickelten sich die Zahlen anschließend immer rasanter. Das Bundesministerium für Gesundheit vermeldete im ersten Halbjahr 2025 einen Anstieg der Importe von mehr als 400 Prozent, von rund 19 auf 80 Tonnen. Hochgerechnet auf das Gesamtjahr dürfte das Volumen jenseits der 140-Tonnen-Marke liegen. Diese Änderungen haben einen aufstrebenden Markt geschaffen, wodurch sich Deutschland zum größten Einzelmarkt für Medizinal-Cannabis in Europa entwickelt hat.
Parallel dazu stieg auch die Zahl der ausgestellten Rezepte deutlich an. Schätzungen gehen inzwischen von mehreren Millionen Patientinnen und Patienten aus, die Cannabis auf ärztliche Verordnung nutzen. Das Marktvolumen wird für 2025 auf bis zu eine Milliarde Euro geschätzt.
Ausbau der Strukturen und steigende Professionalisierung
Für viele Unternehmen der Branche war 2025 ein Jahr des Ausbaus. Investiert wurde in GMP-konforme Prozesse (Good Manufacturing Practice), Lieferkettenstabilität, Qualitätssicherung und digitale Patientensteuerung. Deutschland bleibt stark importabhängig, die inländische Produktion deckt weiterhin nur einen begrenzten Teil des Bedarfs. Internationale Partnerschaften mit Produzenten in Kanada, Portugal oder anderen EU-Staaten sind daher weiterhin zentraler Bestandteil der Marktstruktur.
Politische Reaktionen auf das Wachstum
Mit der steigenden Bedeutung des Marktes wächst auch die politische Aufmerksamkeit, die Debatte rund um die Teillegalisierung polarisiert und spaltet Meinungen. Vertreter der CDU äußerten frühzeitig Bedenken, dass vereinfachte Verschreibungswege zu Fehlentwicklungen führen könnten. Besonders digitale Plattformmodelle bzw. Telemedizinanbieter mit Sitz im Ausland geraten dabei in den Fokus der Kritik.
Im Herbst 2025 wurde von Warken & Co. ein Gesetzeswurf zur Änderung des Medizinal-Cannabisgesetzes vorgestellt. Dieser sieht unter anderem strengere Vorgaben für telemedizinische Verschreibungen vor, genauer gesagt einen verpflichtenden persönlichen Arztkontakt sowie ein Versandverbot über Telemedizinanbieter. Ziel ist es, medizinische Standards zu präzisieren und potenziellen Missbrauch zu verhindern. Die politische Argumentation verweist auf die stark gestiegenen Importzahlen und die zunehmende Zahl digital vermittelter Rezepte. Gleichzeitig wird betont, dass Cannabis als medizinische Therapie klar vom Freizeitkonsum abgegrenzt bleiben müsse und sich dabei viele Freizeitkonsumenten als Patienten ausgeben.
Innerhalb der Branche wird diese Entwicklung differenziert bewertet. Sascha Mielcarek, CEO der Canify AG, ordnet den Gesetzentwurf nüchtern ein: „Der Kabinettsentwurf zur Änderung des MedCanG schießt mit Kanonen auf Spatzen. Wir haben ein wachsendes Problem mit der missbräuchlichen Anwendung von Opioiden, Benzodiazepin und anderen verschreibungspflichtigen Medikamenten. Die Therapie mit Cannabis bietet in vielen Fällen eine nebenwirkungsärmere Alternative und mit dem Gesetzentwurf würde der Zugriff genau darauf erschwert werden. Medizinisches Cannabis eignet sich nicht, einen Präzedenzfall zu schaffen. Der Gesetzentwurf ist kein Beitrag zur Patientensicherheit.“
Unabhängig von der Bewertung einzelner Maßnahmen zeigt sich vor allem, dass der regulatorische Rahmen weiterhin in Bewegung ist. Für Unternehmen bedeutet das eine Phase erhöhter Unsicherheit bei gleichzeitig stabiler Nachfrage. Experten befürchten, dass der Markt um die Hälfte einbrechen könnte, sollte ein physischer, persönlicher Arztkontakt Wirklichkeit werden.
Was bedeutet das für Start-ups und Investoren?
Für Gründer und Kapitalgeber bleibt der Markt grundsätzlich attraktiv. Das Wachstum der vergangenen zwei Jahre zeigt eine robuste Nachfrage. Gleichzeitig sind die Eintrittsbarrieren hoch. Wer im medizinischen Cannabissektor aktiv werden möchte, benötigt regulatorisches Know-how, belastbare Lieferketten, medizinische Anbindung und Kapital für Qualitätssicherung und Compliance.
Gerade diese Anforderungen wirken jedoch auch stabilisierend. Der Markt ist stark reguliert, professionell organisiert und eingebettet in bestehende Gesundheitsstrukturen. Für Investoren stellt sich daher weniger die Frage nach dem Potenzial als nach der Planbarkeit. Politische Anpassungen wirken sich unmittelbar auf Geschäftsmodelle, Bewertungen und Expansionsstrategien aus.
Ausblick auf 2026
Mit Blick auf das neue Jahr zeichnet sich ein Szenario der Neujustierung ab. Möglich ist eine Konsolidierung, bei der sich professionelle Anbieter weiter etablieren und regulatorische Klarstellungen für mehr Stabilität sorgen. Ebenso denkbar sind weitere gesetzliche Anpassungen, die das Wachstum stärker strukturieren. 2026 wird zeigen, unter welchen regulatorischen Bedingungen sich dieser Markt weiterentwickelt – und wie attraktiv er für Gründer und Investoren langfristig bleibt.
Seed-Runde: Leipziger HRTech clarait erhält über 1,5 Mio. Euro
Das 2023 von Johannes Bellmann, Miriam Amin und Thilo Haase gegründete Start-up clarait digitalisiert einen der letzten analogen Bereiche im Unternehmen: die Zusammenarbeit zwischen Betriebsräten und HR.
Die clarait GmbH hat den Abschluss einer Seed-Finanzierungsrunde bekanntgegeben und sichert sich Kapital in Höhe von über 1,5 Millionen Euro. Lead-Investor der Runde ist der TGFS Technologiegründerfonds Sachsen, der einen siebenstelligen Betrag investiert. Als Co-Investor beteiligt sich der HR Angels Club, ein europaweites Netzwerk aus erfahrenen HR-Führungskräften und Investoren.
Marktlücke: Der „White Spot“ zwischen HR- und Legal-Tech
Während klassische HR-Prozesse wie Payroll oder Recruiting längst digitalisiert sind, gilt der Bereich der „Labour Relations“ (betriebliche Mitbestimmung) als einer der letzten kaum erschlossenen Märkte. In vielen Unternehmen dominiert hier noch der „Status Quo“ – ein Vorgehen, das angesichts strenger Compliance-Vorgaben und der DSGVO zunehmend riskant wird.
Clarait positioniert sich hier mit zwei verknüpften SaaS-Lösungen:
- BRbase unterstützt Betriebsräte bei der strukturierten Organisation von Sitzungen, Beschlüssen und Mitbestimmungsprozessen.
- HRflows liefert der Arbeitgeberseite juristisch geprüfte Workflows für mitbestimmungspflichtige Maßnahmen.
Wettbewerb & USP: Brückenbauer statt Insellösung
Im Wettbewerbsumfeld grenzt sich das Leipziger Start-up deutlich ab. Während etablierte Anbieter oft reine Insellösungen anbieten, verfolgt clarait einen Plattform-Ansatz. Ziel ist es, den Medienbruch zwischen Personalabteilung und Gremium zu beenden und beide Seiten auf einer Infrastruktur zu verbinden.
Das Start-up adressiert damit einen wachsenden Markt, der durch steigende regulatorische Anforderungen und den Trend zu revisionssicheren Workflows getrieben wird. Zu den Kunden zählen bereits DAX-40- und Fortune-500-Unternehmen.
Der „Perfect Fit“: Praxis trifft Prozesslogik
Ein wesentlicher Faktor für das Investment dürfte die Komposition des Gründerteams sein, das die nötige Neutralität für dieses politisch sensible Thema mitbringt:
- Johannes Bellmann (CEO) vereint die Perspektiven beider Verhandlungspartner und versteht das Geschäftsmodell sowie den Markt der betrieblichen Mitbestimmung tiefgehend.
- Thilo Haase (CPO) verantwortet die inhaltliche Ausgestaltung der Plattform.
- Miriam Amin (CTO) vervollständigt das Trio als technische Mitgründerin.
„Smart Money“ und KI-Pläne
Neben dem Kapital des TGFS bringt vor allem der Einstieg des HR Angels Club strategisches Gewicht. Das Netzwerk gilt als „Smart Money“ der HR-Tech-Szene und bietet Zugang zu Entscheidern in Personal- und Organisationsfunktionen. Sören Schuster, Geschäftsführer des TGFS, sieht in der Gremienverwaltung einen „bislang nur unzureichend digitalisierten Bereich“ und bescheinigt dem Team das Potenzial zum Qualitätsführer.
Das frische Kapital soll primär in den Ausbau der Vertriebsorganisation sowie die Weiterentwicklung der Software fließen. Geplant sind unter anderem die Integration von KI-gestützten Assistenzfunktionen sowie die Vorbereitung der Internationalisierung, die zunächst im deutschsprachigen Raum erfolgen soll.
From Lab to Launch
Wie Start-ups Forschung in Wirkung und Wachstum übersetzen: So gelingt Life-Sciences-Start-ups die Series A.
Life Sciences gehören zu den spannendsten, aber auch anspruchsvollsten Bereichen für Wachstumskapital. Kaum ein Sektor verbindet wissenschaftliche Exzellenz so direkt mit gesellschaftlichem Nutzen und gleichzeitig mit langen Entwicklungszyklen, hohen Kosten und komplexen regulatorischen Anforderungen. Genau diese Mischung macht den Weg vom Forschungslabor bis zum Series A-Deal so herausfordernd – und sie erklärt, warum Impact-Investoren hier besonders genau hinschauen.
Hervorragende Technologien werden nicht automatisch zu einer überzeugenden Investmentstory. Entscheidend ist, ob ein Start-up den Sprung von der wissenschaftlichen Idee zur skalierbaren Wertschöpfung schafft. Wer Series A-Kapital aufnehmen will, muss zeigen, dass aus Forschung ein Produkt werden kann, aus einem Produkt ein Markt und aus einem Markt ein nachhaltiges Geschäftsmodell.
Wissenschaft allein reicht nicht: Der Forschungsansatz muss investierbar werden
Viele Life Sciences-Start-ups starten mit einem starken technologischen Fundament. Die wissenschaftliche Tiefe ist oft beeindruckend, ebenso wie die Expertise im Team. Für Investoren ist das jedoch nur der Ausgangspunkt. Series A-Investoren erwarten einen realistischen Anwendungskontext und ein skalierbares Businessmodell mit klarer Exitstrategie. Damit verändern sich die entscheidenden Fragen im Unternehmen und auch die Teamanforderungen. Wie stabil ist die Datenlage? Wie groß ist der adressierbare Markt? Wie robust ist das Verfahren außerhalb idealer Laborbedingungen? Ist die Patentlage verteidigbar? Wie ist das Wettbewerbsumfeld strukturiert – und welche Schritte (inkl. Regulatorik und Kapitalbedarf) sind nötig, um ein marktfähiges Produkt zu schaffen? Je klarer ein Start-up diesen Übergang strukturieren und belegen kann, desto eher entsteht Vertrauen beim Investor: Denn die Series A ist oft der Zeitpunkt, an dem Investoren das hohe Risiko eines Life Sciences-Start-ups anhand seines Kommerzialisierungspotenzials genauer beurteilen. Detaillierte Informationen zu Entwicklungszeit, Kapitalbedarf, Regulatorik sowie Marktzugang, Exitoptionen und die richtige Equity Story werden zu entscheidenden Faktoren für ein Series A-Start-up.
Impact ist kein Buzzword: Wirkung muss messbar und plausibel sein
Impact-Investoren investieren nicht nur in Rendite, sondern auch in Wirkung. Gerade in den Life Sciences kann Impact sehr konkret sein, etwa durch bessere Diagnostik, effizientere Therapien, schnellere Entwicklungspfade oder niedrigere Kosten im Gesundheitssystem – oder auch eine erste neue Therapieoption für bestimmte Indikationen. Impact muss verständlich, messbar und realistisch hergeleitet werden. Viele Start-ups formulieren ihren Impact zu allgemein. Am meisten Erfolg verspricht eine klare, fokussierte Wirkungskette. Welches Problem wird gelöst? Für welche Patientengruppe oder welches Versorgungssystem? Welche Outcomes verbessern sich tatsächlich? Und welche Evidenz spricht dafür, dass diese Wirkung erreichbar ist? Gibt es kompetitive Therapien oder Diagnostika, wie strukturiert sich der Preis, und vor allem: Gibt es eine (teilweise) Erstattung der Versicherungen? Wer Impact so darstellt, dass er nicht nur emotional, sondern auch ökonomisch und klinisch nachvollziehbar wird, schafft einen echten Vorteil im Fundraising.
Der Weg zur Series A: Strategie schlägt Hoffnung
Series A-Kapital ist nicht einfach „mehr Geld“. Es markiert einen Strategiewechsel. In dieser Phase wollen Investoren sehen, dass ein Start-up seinen Entwicklungsplan realistisch strukturiert, die Risiken kennt und einen klaren Pfad zur Kommerzialisierung aufzeigen kann. Dazu gehören belastbare Meilensteine, ein sauberer Finanzierungsplan und eine klare Priorisierung. Welche Daten müssen bis wann vorliegen? Welche regulatorischen Schritte sind kritisch? Welche Partnerschaften sind erforderlich, um Zeit und Kosten zu reduzieren und sich strategisch zu platzieren? Und wie sieht der Plan aus, wenn einzelne Annahmen nicht eintreten? Ein überzeugender Series A-Case zeigt nicht nur das Best Case-Szenario, sondern auch professionelles Risikomanagement – denn Investoren wissen, dass im Life Sciences-Umfeld nicht alles planbar ist. Umso wichtiger ist ein strukturierter, realistischer Ansatz.
Team, Governance und Umsetzungskraft: Investoren investieren in Führung
Im Life Sciences-Bereich ist die Teamfrage oft entscheidend. Nicht, weil wissenschaftliche Kompetenz unwichtig wäre, sondern weil Series A eine operative Phase ist. Investoren suchen Teams, die nicht nur Forschung können, sondern auch kommerzielle Produktentwicklung, klinische Strategie, Marktlogik und Partnerschaften. Start-ups wirken besonders überzeugend, wenn sie früh ein starkes Set-up schaffen. Dazu gehören erfahrene Advisors, ein realistisches Verständnis für klinische und regulatorische Prozesse sowie eine Governance-Struktur, die Wachstum ermöglicht. Ein starkes Board, klare Rollen und ein transparenter Kommunikationsstil sind nicht nur „nice to have“, sondern Signale von Reife. Gerade Impact-Investoren achten darauf, ob die Mission eines Unternehmens auch organisatorisch getragen wird. Wer Wirkung verspricht, muss zeigen, dass Verantwortung strukturell verankert ist.
Skalierung in Life Sciences: Partnerschaften oft der schnellste Hebel
Während in klassischen Tech-Modellen Skalierung oft über Vertrieb und Marketing läuft, ist der Hebel in den Life Sciences häufig ein anderer. Strategische Partnerschaften können der Schlüssel sein, um schneller Richtung Markt zu kommen und früh einen Exitpfad zu skizzieren. Das kann über Pharmakooperationen, Diagnostikpartner, Forschungseinrichtungen oder Industriepartner geschehen.
Für Investoren ist dabei entscheidend, dass Partnerschaften nicht nur als Option erwähnt werden, sondern als strategischer Bestandteil des Geschäftsmodells. Wer zeigen kann, dass der Zugang zu Infrastruktur, klinischen Studien, Produktionskapazitäten oder Vertriebskanälen realistisch gesichert ist, reduziert das Risiko (oft auch die Kosten) und erhöht die Attraktivität der Series A-Runde.
Gleichzeitig sollten Start-ups vermeiden, sich zu früh abhängig zu machen. Gute Deals entstehen, wenn die eigene Position stark genug ist, um Partnerschaften auf Augenhöhe zu verhandeln.
Fazit: Series A gewinnt, wer Impact in ein skalierbares Geschäftsmodell übersetzt
Der Weg vom Labor zum Launch ist in den Life Sciences kein Sprint, sondern ein anspruchsvoller, kapitalintensiver Prozess. Impact-Investoren sind bereit, diesen Weg zu begleiten, erwarten jedoch Klarheit, Struktur und Evidenz. Wissenschaftliche Exzellenz ist die Basis, doch Series A-Kapital gibt es nur, wenn daraus ein investierbares Produkt, ein plausibler Markt und ein professionell geführtes Unternehmen entsteht. Start-ups, die ihren Impact messbar machen, ihre Meilensteine realistisch planen und ihr Team auf Umsetzung ausrichten, haben die besten Chancen, Wirkung und Rendite zusammenzubringen: Denn am Ende überzeugt nicht die Vision allein, sondern vor allem die Fähigkeit, sie in messbare Ergebnisse zu übersetzen.
Dies ist ein Beitrag aus der StartingUp 01/26 – hier geht's zum E-Shop.
