Aktuelle Events
Die Leistung ganz einfach überwachen
Mit der für sie passenden Software-Lösung haben Gründer die permanente Kontrolle über ihre IT-Strukturen und können sich umso intensiver dem Auf- und Ausbau ihres Unternehmens widmen.
Sind Sie sich sicher, dass überall im System alles wie gewünscht verläuft? Die Leistung von Software- und Hardwarekomponenten in einem System sollte laufend überwacht werden. Ein plötzlicher Leistungsabfall kann sich nämlich auf das ganze System auswirken, gerade wenn er an einem wichtigen Ort vorkommt. In einem Zeitalter, in dem geschäftlich so gut wie alles von einem perfekt arbeitenden Computersystem abhängt, ist die Zuverlässigkeit dieses Systems eine Grundvoraussetzung für eine gut funktionierende Geschäftstätigkeit. Ein Engpass hat Auswirkungen auf die Effizienz Ihrer Mitarbeiter und letztlich auch auf die Dienstleistungen, die Sie Ihren Kunden anbieten möchten.
Engpässe früh erkennen – und verhindern
Man stelle sich vor, Sie lancieren über Ihre Webseite ein neues Produkt. Doch die Webseite ist nur in der Lage, einen Bruchteil der Anfragen zu verarbeiten, bevor sie überlastet ist. Dies legt die Webseite lahm – nicht nur für die Interessenten an Ihrem neuen Produkt, sondern auch für alle anderen Kunden, die vielleicht aus anderen Gründen auf diese Webseite zugreifen wollten. Hätten Sie sich jedoch rechtzeitig über die Serverkapazitäten informiert gehabt, wäre es vielleicht auch noch möglich gewesen, die nötige Kapazität bereitzustellen, um dem Ansturm gewachsen zu sein.
Doch wie erkennt man Schwachstellen in einem System, das aus vielen größeren und kleineren einzelnen Komponenten besteht? Grundsätzlich deckt der Microsoft System Center Operations Manager (SCOM) alle Belange im Zusammenhang mit Produkten von Microsoft ab. Es überwacht die Leistung aller im System vorhandenen und aktiven Komponenten und setzt Warnungen ab, sobald irgendwo Engpässe entstehen oder es sogar einen Schaden zu beheben gibt. Es sammelt die Protokolldateien der verschiedenen Applikationen und wertet diese zuhanden des Administrators aus, sodass dieser einfacher seine Entscheidungen treffen kann.
Je mehr Komponenten in einem System vorhanden sind, desto größer ist auch die Wahrscheinlichkeit, dass es sich um Komponenten verschiedener Hersteller handelt. Nicht immer lassen sich diese auch mit dem standardmäßigen SCOM von Microsoft überwachen. Mit einer SCOM-Überwachungslösung von SolarWinds hingegen sind Sie bestens ausgerüstet, um auch in einem vielseitig ausgestatteten Netzwerk Leistung und Zuverlässigkeit garantieren zu können. Diese Lösung sorgt dafür, dass Sie nicht mit mehreren Trialware-Packs arbeiten müssen, um Ihr System überwachen zu können.
Gute Planung als Schlüssel zum Erfolg
Wann ein Server wie stark beansprucht wird, ist unter Umständen nicht sehr einfach abzuschätzen. Dazu braucht es Erfahrungswerte, doch auch diese können die Zukunft nicht vollständig vorhersagen. Entsprechend ist es wichtig, dass die Systemüberwachung möglichst präzise arbeitet, unabhängig davon, wie homogen oder heterogen ein System aufgebaut ist. Heterogen kann in diesem Zusammenhang bedeuten, dass beispielsweise Hardware- oder Softwarekomponenten von komplett verschiedenen Herstellern im Einsatz sind.
Gerade als Jungunternehmer haben Sie vielleicht noch viele andere Dinge im Kopf, als das Sie sich ausführlich solchen Details in der IT widmen könnten. Gleichzeitig haben Sie mit einem Start-up auch bestimmt nicht die Ressourcen, die es braucht, um all diese Belange unter dem eigenen Dach abzudecken. Mit der richtigen Trialware-Lösung haben Sie allerdings das Nötigste getan, um dafür zu sorgen, dass der Betrieb auch dann noch sauber läuft, wenn Sie hoffentlich vom eigenen Erfolg überrannt werden. Es gilt stets auf der Hut zu sein – die richtige Trialware hilft Ihnen dabei.
Diese Artikel könnten Sie auch interessieren:
50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert
Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.
Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.
Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.
Vom Side-Project zur modularen Architektur
Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.
Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.
Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.
Das Open-Core-Modell auf dem Prüfstand
Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.
Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.
Im Haifischbecken der Tech-Giganten
In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.
Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.
Lektionen für die Start-up-Szene
Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.
Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.
Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.
Angriff auf die Portal-Giganten: PropTech Mietz steigt in den Immo-Verkauf ein
Pünktlich zum bevorstehenden fünfjährigen Jubiläum wagt das Berliner Start-up Mietz den nächsten großen Schritt. Die PropTech-Plattform von Gründerin Lena Tuckermann erweitert ihr Geschäftsmodell und bietet ab sofort neben der digitalen Vermietung auch den Immobilienverkauf über eine End-to-End-Plattform an.
Damit positioniert sich das Unternehmen künftig als umfassende digitale Lösung für Vermietung und Verkauf von Wohnimmobilien in Deutschland. Was als nutzerinnenfreundliche App-Alternative für die Wohnungssuche begann, soll sich nun zu einer umfassenden Infrastruktur entwickeln, die nahezu den gesamten Verkaufsprozess digital organisieren soll.
Das Bemerkenswerte daran: Laut Gründerin Lena Tuckermann hat ein dreiköpfiges Kernteam das neue Segment in nur 14 Tagen mithilfe von KI aus dem Boden gestampft – eine klare Kampfansage an die etablierten Marktgiganten.
Vom eigenen Wohnungs-Frust zum PropTech-Challenger
Die Mietz GmbH ist eine 2021 gegründete SaaS-Plattform für digitale Immobilienvermarktung mit Sitz in Berlin. Entstanden aus der eigenen Frustration bei der Wohnungssuche, startete Tuckermann mit der Mission, Vermietende und Mietende von Mailfluten zu befreien und den gesamten Prozess der Wohnraumvermietung zu digitalisieren. Das reicht von der Inseratserstellung über das Bewerbermanagement bis hin zur rechtssicheren Vertragsunterzeichnung.
+++ Tipp der Redaktion: 2023 was Lena Tuckermann bereits unsere „Gründerin der Woche“ – hier das Interview zum Nachlesen. +++
Das Konzept ging auf: Inzwischen wird die Plattform nach Unternehmensangaben deutschlandweit von über 150.000 Nutzerinnen verwendet. Flankiert wird das aktuelle Wachstum durch strategische Verstärkung im Management: Der Münchner Unternehmer Lukas Schwaiger ist als neuer Partner an Bord. Er schließe laut Tuckermann vor allem eine inhaltliche Lücke im Team. „Lukas teilt unsere Vision und Ambition und ist damit eine große Bereicherung für Mietz“, freut sich die Gründerin. Und schiebt den strategischen Mehrwert gleich hinterher: „Zudem bringt er viel operative Expertise aus dem Verkaufssegment ein – dieses Wissen ist wertvoll für die Weiterentwicklung unserer Software Prozesse.“
KI-Tempo vs. Konzernstrukturen
Besonders aufsehenerregend ist die Geschwindigkeit der Produktentwicklung. Dass das neue Marktsegment des Immobilienverkaufs dank des massiven Einsatzes künstlicher Intelligenz von nur drei Personen innerhalb von zwei Wochen aufgebaut wurde, ist eine Kampfansage. Mietz positioniert sich bewusst als schnelle, technologiegetriebene Alternative zu einem Monopol mit 1049 Mitarbeitenden – ein unverhohlener Seitenhieb auf die dominierenden Immobilienportale. In einer traditionell stark von Männern dominierten Immobilienbranche setzt Tuckermann als Female Founder damit ein echtes Ausrufezeichen für agile Softwareentwicklung.
Doch wie viel an den 14 Tagen Entwicklungszeit ist reines KI-Prompting und wie viel echte Programmierarbeit? „Das war ein ambitionierter Plan, aber ich war mir sicher, mit dem aktuellen Tech-Setup schaffen wir das“, blickt Tuckermann zurück. Sie ordnet die Euphorie jedoch realistisch ein: „Der Großteil ist nach wie vor klassisches Coding, die Einzelprozesse werden jedoch durch K-Produkte in einer wesentlich höheren Geschwindigkeit abgewickelt, als vorher.“ Dennoch sei der Sprung gewaltig: „Vor einem Jahr beispielsweise hätten wir mit Coding allein noch viel länger für so ein Produkt gebraucht. Das ist eine riesige Chance für Start-ups in der aktuellen Zeit.“
Diese neuen technischen Möglichkeiten will Mietz nutzen, um gezielt die Schwächen des großen Goliaths anzugreifen. Dieser habe laut der Gründerin in den letzten Jahren durch eine sehr aggressive Preispolitik im Markt viele Teilnehmer verärgert. Zudem liefen viele Prozesse immer noch arbeitsintensiv, intransparent und vor allem ineffizient ab. „Kein Mensch braucht 1.000+ E-Mails pro Vermietung“, kontert Tuckermann scharf. Ihre Kampfansage lautet daher: „Wir sehen die Chance darin, diese Probleme zu lösen und einen Prozess zur Verfügung zu stellen, der fair, kosteneffizient und schnell funktioniert. Ohne eine einzige E-Mail.“
Tinder-Prinzip trifft auf KI und B2B-Effizienz
Der Verkaufsbereich richtet sich wie auch die Vermietung sowohl an Privatpersonen als auch an professionelle Anbieter*innen. Die Plattform digitalisiert sämtliche Schritte der Immobilienvermarktung und soll dadurch Kosten und administrativen Aufwand erheblich reduzieren. Das System basiert auf mehreren technologischen Säulen, die nun auch den Verkauf skalierbar machen sollen.
Um das zu erreichen, setzt Mietz auf eine radikale Vereinfachung der User Experience: Für Suchende adaptiert die Plattform das gelernte Tinder-Prinzip. Nach der einmaligen Anlage einer digitalen Bewerbungsmappe reicht ein simpler Swipe nach rechts, um sich auf passende Objekte zu bewerben. Auf Anbieterseite verspricht die Software dank KI-gestützter Automatisierung eine massive Arbeitserleichterung. So soll die Künstliche Intelligenz selbständig Exposé-Texte basierend auf hochgeladenen Bildern verfassen und diese eigenständig um Mikro- sowie Makrolage-Daten ergänzen.
Flankiert wird dies vom sogenannten Mietz Score: Ein eigens entwickelter Algorithmus wertet Bewerberinnendokumente vollautomatisch aus und zeigt den Anbieterinnen sofort die Passgenauigkeit und Bonität der Interessenten an. Doch Mietz zielt nicht nur auf private Eigentümerinnen ab: Mit einem klaren B2B-Fokus unterstützt die Plattform auch Massenimporte sowie Schnittstellen zu ERP-Systemen, wodurch sich die Lösung ebenso nahtlos für Wohnungsunternehmen, Projektentwicklerinnen und Maklerinnen eignet.
Laut Tuckermann reduziert die digitale End-to-End-Lösung die Kosten um bis zu 80 Prozent und wickelt den Vermietungsprozess im Schnitt doppelt so schnell ab wie übliche Immobilienplattformen.
Zwischen Convenience und Notariat
Der Kauf einer Immobilie ist jedoch eine hochvolumige, oft lebensverändernde Entscheidung. Ob eine schnelle, auf Bequemlichkeit getrimmte UX dem enormen Informations- und Sicherheitsbedürfnis beim Immobilienkauf gerecht wird, muss sich erst noch zeigen. Auf die Nachfrage, wie sie diesem Anspruch gerecht werden wolle, betont die Gründerin: „Gerade bei einer solchen Kauf-Entscheidung geht es um Verlässlichkeit, Sicherheit und Transparenz.“ Man verstehe sich nicht nur als Plattform, sondern als Unterstützer für die Nutzer*innen. Das setze man um, indem nur geprüfte Angebote von seriösen Anbieter*innen gelistet und auch Informationen rund um den Prozess zur Verfügung gestellt werden.
Ein weiteres Nadelöhr ist der in Deutschland zwingend erforderliche Gang zum Notariat. Tuckermann räumt ein, dass die Software in diesem streng regulierten analogen Schritt aktuell noch an juristische Grenzen stößt. „Im Verkauf ist das Vertrauen in der Anbahnung und die Verbindung der richtigen Vertragsparteien ein sehr wesentlicher Prozess. Hierauf konzentrieren wir uns für den Start in diesem Jahr“, erklärt sie die aktuelle Roadmap. Langfristig wolle man die Grenzen aber verschieben: „Im Anschluss geht es darum, den Prozess möglichst weit für den Notar vorzubereiten – etwa durch Features, die den Datenraum automatisch aufbereiten.“
Wo Mietz angreift – und was zum Überleben nötig ist
Der Blick auf die Konkurrenz zeigt, dass Mietz sich auf ein hart umkämpftes Schlachtfeld begibt. Das von Lena Tuckermann erwähnte Monopol mit 1049 Mitarbeitenden ist ein kaum verhüllter Fingerzeig auf den Branchenriesen ImmoScout24. Flankiert von Playern wie Immowelt dominiert dieser das klassische Classifieds-Geschäft. Gleichzeitig tummeln sich im PropTech-Sektor bereits etablierte Start-ups wie McMakler, die den Verkaufsprozess als hybride Makler digitalisieren wollen.
Wie kann und muss sich Mietz in diesem Sandwich aus Milliardenkonzernen und Unicorn-Hoffnungen absetzen? Die Strategie der Berliner ruht dabei auf drei tragenden Säulen. Anstatt wie klassische Immobilienportale überwiegend auf kostenintensive Anzeigenmodelle zu setzen – und damit viel Frustration im Markt zu verursachen –, verfolgt Mietz einen technologiegetriebenen Ansatz. Das Ziel ist es, Immobilientransaktionen und das gesamte Ökosystem rund um die Immobilie als digitales Home Ecosystem völlig neu zu denken.
Um sich zudem die KI-gestützte Preisführerschaft zu sichern, greift das Start-up die teuren Verkaufs-Inserate der klassischen Portale sowie die kostenintensiven Vertriebsteams der Hybrid-Makler an. Mietz setzt als SaaS-Modell stattdessen voll auf KI und Automatisierung, um die Kosten für Anbieter*innen drastisch zu senken. Der dritte entscheidende Hebel gegen die großen Portale ist ein gezielter B2B-Lock-in-Effekt: Durch eine tiefe Integration in die Arbeitsabläufe der Immobilienprofis mittels ERP-Schnittstellen will Mietz für Wohnungsunternehmen langfristig unverzichtbar werden.
Bei der Monetarisierung des Verkaufssegments weicht Tuckermann von reinen Abo-Modellen ab: „Es wird eine Kombination geben“, verspricht sie. „Wir überlassen unseren Nutzern die Wahl, ob sie Mietz in einem pay-per-use Modell nutzen möchten oder als SaaS Abo.“
Der Lackmustest
Lukas Schwaiger ist überzeugt, dass klassische Plattformmodelle in den kommenden Jahren durch technologische Entwicklungen und KI zunehmend an Bedeutung verlieren werden. Dennoch bleibt der Immobilienmarkt ein „Winner-takes-all-Spielfeld“. Platzhirsche verfügen über gewaltige Netzwerkeffekte und Millionen von Seitenbesucher*innen. Eine End-to-End-Lösung muss zwingend genügend Käuferinnen und Verkäuferinnen vereinen, um echte Liquidität im Markt zu schaffen.
Wie will Mietz ohne gigantisches Marketingbudget diese Netzwerkeffekte erzielen? Tuckermann gibt sich hier überaus selbstbewusst: „Beide Parteien sind schon da und kommen aktuell aus dem Markt proaktiv auf uns zu.“ Sie verweist auf die Vorarbeit der letzten Jahre: „Wir haben in den vergangenen Jahren ein starkes Immobiliennetzwerk aufgebaut. Die Produktwünsche hat der Markt klar formuliert.“ Für ihr agiles Team sei die Mission nun simpel: „Für uns geht es jetzt vor allem um deren Umsetzung in hoher, technischer Geschwindigkeit.“
Dass ein 3-Personen-Team nach eigenen Angaben in 14 Tagen ein Verkaufs-Tool baut, beweist beispiellose Agilität. Ob das ausreicht, um hochvolumige Transaktionen von den etablierten Playern abzuziehen, wird die Zukunft zeigen.
KI-Müdigkeit im Team? Warum Friction-Maxxing jetzt die Antwort ist
Nach all der Euphorie über KI-Tools macht sich bei immer mehr Menschen eine gewisse KI-Müdigkeit breit. Die Technologie hat die Arbeitswelt im Sturm erobert – doch in Unternehmen wachsen die Zweifel: Macht KI wirklich alles einfacher oder trägt sie sogar zu sinkendem Engagement bei? Dr. Arne Sjöström von Culture Amp erklärt, warum Unternehmen jetzt auf Friction-Maxxing setzen sollten.
Friction-Maxxing ist ein Trend aus dem Lifestyle-Bereich, der jedoch auch großes Potenzial für die Arbeitswelt und den strategischen Einsatz von KI in Unternehmen hat. Gemeint ist damit ein Verhalten, bei dem man bewusst mehr kleine Hindernisse und Hürden in Arbeitsprozessen akzeptiert.
Der große Vorteil: Durch eine bewusste Verzögerung wird das Urteilsvermögen geschärft, das Engagement vertieft und die mentale Resilienz der Mitarbeitenden gestärkt.
Friction-Maxxing als Gegengewicht zur KI-Dominanz
Insbesondere für Führungskräfte und das mittlere Management bietet Friction-Maxxing die Möglichkeit, produktive Reibung in Entscheidungsprozesse zurückzubringen. Durch die Rückkehr zu mehr persönlichen Begegnungen und analogen Arbeitsabläufen entstehen Dinge, die in digitalen Formaten schlicht verloren gehen:
- Konzentrierte Aufmerksamkeit.
- Psychologische Sicherheit.
- Wichtige nonverbale Signale.
Persönliche Begegnungen ermöglichen einen konstruktiven Austausch und helfen Teams dabei, ein gemeinsames Verständnis von Qualität zu entwickeln. Am Ende geht es nicht darum, unnötige Hürden aufzubauen, sondern das richtige Maß an „Reibung“ zu gestalten: Analoges für einen besseren Umgang mit Ambiguität, Kreativität und richtungsweisenden Entscheidungen – Digitales für die Umsetzung.
Fokus und Sinnhaftigkeit zurückerobern
Positive Reibung kann als dringend benötigtes Gegengewicht zur KI-getriebenen Beschleunigung in der Arbeitswelt fungieren und den Fokus wiederherstellen. Sei es durch das gründliche, manuelle Überdenken eines Briefings oder den bewussten Wunsch nach persönlichem Austausch anstelle eines asynchronen Chats. Wer sich Zeit zum Denken, Begegnen und Gestalten zurückerobert, ermöglicht es Teams, sich wieder mit ihrem eigentlichen Auftrag und ihren Ansprüchen zu verbinden – Qualitäten, die KI-Automatisierung allein niemals erreichen kann.
Dieses geänderte Verhalten führt zu mehr Präsenz, weniger Angst und einem gestärkten Gefühl der Kontrolle. Der bewusst gewählte, nur scheinbar umständlichere Weg kann somit zu mehr Autonomie und tieferer Zufriedenheit am Arbeitsplatz beitragen.
Ein Plädoyer für intentionale Reibung
Die Aufgabe moderner Führungskräfte ist es daher, bei menschenzentrierten Tätigkeiten ganz bewusst sogenannte intentionale Reibung herbeizuführen und KI parallel dazu zu nutzen, den täglichen administrativen Arbeitsaufwand zu minimieren.
Unternehmen müssen klar benennen, wo KI ihre Stärken hat und eingesetzt werden soll – und wo menschliche Fähigkeiten wie Empathie, Urteilsvermögen und kritisches Denken absolut unersetzlich sind. So gibt man Mitarbeitenden die Möglichkeit, sich auf die Arbeit zu konzentrieren, die wirklich zählt und echten Mehrwert schafft.
Friction-Maxxing ist somit weniger ein Plädoyer gegen die Technologie, sondern vielmehr ein Aufruf zur Intentionalität: Dem bewussten Abwägen darüber, wann Prozesse automatisiert werden sollten und wann gerade der Widerstand den entscheidenden Unterschied machen kann.
Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp. Sein Schwerpunkt liegt in der Organisationspsychologie und der angewandten Forschung.
Amba: Der Schlüssel zum Digital Detox
Drei Stunden und 19 Minuten – so lange hängen junge Erwachsene täglich auf Social Media, oft völlig unbewusst. Das Kölner Start-up Amba will diesen Scroll-Automatismus nun mit einem simplen haptischen Trick durchbrechen: Ein NFC-Schlüsselanhänger erzwingt eine physische Hürde. Doch kann das Konzept im Alltag wirklich bestehen?
Das 2025 von Yves Maurice Clever und Bastian Fischer gegründete Kölner Start-up Amba positioniert sich mutig im umkämpften Digital-Wellbeing-Markt. Statt auf strenge App-Verbote zu setzen, wollen die beiden 27-Jährigen das unbewusste Dauer-Scrollen auf Social Media mit einem physischen Schlüsselanhänger stoppen. Angesichts einer durchschnittlichen Social-Media-Nutzungsdauer von drei Stunden und 19 Minuten bei jungen Erwachsenen – wovon viel Zeit für rein gewohnheitsmäßiges Scrollen draufgeht – zielt Amba darauf ab, dieses Muster durch eine haptische Hürde zu durchbrechen.
Yves, der in Neuss Marketing studierte, beschäftigt sich schon lange mit digitaler Achtsamkeit, während Bastian als Informatiker das technische Know-how aus der Softwareentwicklung mitbringt. Angetrieben aus dem eigenen Frust über gängige Software-Lösungen, die sich mit wenigen Klicks umgehen ließen, begannen sie im Sommer vergangenen Jahres mit der Produktentwicklung, bevor im Oktober 2025 die offizielle Gründung in Köln folgte.
Haptik schlägt Habit
Doch wie verhindert man, dass der Griff zum NFC-Chip nicht bald zur nächsten unbewussten Gewohnheit wird? „Unbewusstes Scrollen funktioniert so gut, weil alles in derselben Bewegung passiert: Man nimmt das Handy in die Hand und ist sofort in der App“, analysiert Mitgründer Bastian. Ein physisches Element unterbreche genau diesen Automatismus.
Der entscheidende Vorteil gegenüber klassischer Software liege im Timing, so Bastian weiter: „Bildschirmzeit-Limits erscheinen meist erst im Scroll-Moment, wenn viele schon im Autopilot sind und sie reflexartig wegklicken. Bei Amba fällt die Entscheidung vorher.“ Nach dem haptischen Entsperren legen die Nutzer*innen fest, wie viel Zeit sie in der App verbringen möchten. Bastian betont: „Dieser kleine mentale Rahmen macht Social Media wieder zu einer bewussten Entscheidung statt zu einer Gewohnheit.“ Erste Tests scheinen den Gründern recht zu geben: Eigenen Angaben zufolge sei die Social-Media-Nutzung der Tester auf durchschnittlich 49 Minuten pro Tag gesunken.
Das Hardware-Paradoxon und die Konkurrenz
Der Ansatz der „Intentional Friction“ ist clever, doch der Markt verzeiht keine Fehler. Mit dem niederländischen Start-up Unpluq existiert bereits ein etablierter Konkurrent mit einem fast identischen NFC-Konzept. Yves sieht den Unterschied seines Produkts vor allem in der Systematik. „Viele bestehende Lösungen [...] funktionieren nach dem Prinzip: Man hält den Tag ans Smartphone, um Apps zu sperren, und deaktiviert die Sperre später wieder. Wir haben die Logik umgedreht“, kontert Yves. Bei Amba seien die Apps standardmäßig gesperrt und würden erst durch den Schlüssel freigeschaltet.
Zudem wolle man sich über eine extrem niedrige Einstiegshürde abheben: „Deshalb kostet der physische Tag bei uns nur einen symbolischen Euro und Nutzer können Amba zwei Wochen lang testen“, erklärt Yves den aggressiven Markteinstieg.
Der Kampf gegen die Abo-Müdigkeit
Dennoch muss sich Amba langfristig beweisen, insbesondere da laut einer ExpressVPN-Umfrage 38 Prozent der Konsument*innen explizit unter „Abo-Müdigkeit“ leiden. Ob die Nutzerschaft dauerhaft bereit ist, knapp 20 Euro im Jahr für einen softwarebasierten Verzicht zu zahlen, bleibt abzuwarten.
Bastian räumt offen ein: „Mit den physischen Tags verdienen wir tatsächlich kein Geld, sie decken lediglich die Produktionskosten.“ Er ist jedoch überzeugt, dass die Abo-Investition für die Nutzer*innen unverzichtbar bleibt, da das Suchtpotenzial der Apps nicht verschwinde. „Social-Media-Plattformen sind bewusst so gestaltet, dass sie möglichst lange Aufmerksamkeit binden. Viele Nutzer berichten uns, dass sie nach kurzer Zeit wieder in alte Muster zurückfallen, sobald sie die Unterstützung entfernen“, warnt Bastian. Das Ziel sei daher keine einmalige „Detox“-Kur, sondern ein Rahmen, um die Nutzung „langfristig kontrollierter zu gestalten“.
Technischer Flaschenhals zum Start
Erschwerend kommt aktuell ein stark restriktives System hinzu: Durch die Begrenzung auf das Betriebssystem iOS 18 bleiben der gesamte Android-Markt sowie Besitzer*innen älterer Apple-Geräte vorerst kategorisch ausgeschlossen. „Die aktuelle Einschränkung auf neuere iOS-Versionen hat vor allem technische Gründe“, verteidigt Yves diesen harten Schnitt. Einige NFC-Funktionen liefen auf älteren Systemen schlichtweg noch nicht stabil genug. Eine Android-Version sei geplant, befinde sich aber noch nicht in der Entwicklung.
Und was passiert, wenn man den rettenden Chip zu Hause vergisst und komplett blockiert ist? Yves beschwichtigt: Für solche Fälle gebe es eine Notfallfunktion in der App, die eine temporäre Entsperrung erlaube. Er verspricht: „Amba soll eine bewusste Hürde schaffen, aber keine Situation, in der Nutzer komplett von ihrem Smartphone abgeschnitten sind.“
Letztlich wandert das Kölner Start-up auf dem schmalen Grat zwischen Achtsamkeit und Deinstallation. Der Erfolg steht und fällt mit dem Hardware-Paradoxon: Nur wenn die Community den Schlüsselanhänger langfristig als befreiendes Werkzeug und nicht als frustrierende Barriere wahrnimmt, wird sich das subventionierte Abo-Modell gegen die Platzhirsche rentieren.
StartingUp-DeepTech-Watchlist 2026
Von „German Engineering“ zu „German DeepTech“: Diese jungen Start-ups und Scale-ups zünden 2026 die nächste Stufe – und sollten zwingend auf dem Radar von Investor*innen und Entscheider*innen stehen.
„Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen.“ Dieser Ausspruch unterstreicht die Herausforderung, die Dynamik unseres Start-up-Ökosystems vorherzusagen. Doch wer 2025 aufmerksam verfolgt hat, der spürt: Es hat sich etwas gedreht. Der Investor*innenfokus hat sich verschoben – weg von reinen E-Commerce-Modellen, hin zu substanzieller Technologie, die echte physikalische Probleme löst.
Die folgende Auswahl an Start-ups und Scale-ups, mit denen 2026 gerechnet werden sollte, ist mehr als eine Watchlist. Sie basiert auf einer Analyse der signifikanten Finanzierungsrunden 2025, der technologischen Reife und der Resonanz bei bedeutenden Preisen. Diese Unternehmen stehen beispielhaft für eine Gründer*innengeneration, die Wissenschaft und Skalierung vereint. Natürlich bleibt ein Restrisiko. Unwägbarkeiten – von geopolitischen Instabilitäten über regulatorische Verschärfungen wie dem EU AI Act bis hin zu volatilen Zinsmärkten – können die nahe Zukunft beeinflussen. Doch die Resilienz dieser Unternehmen stimmt optimistisch.
DefenseTech: Die neue Realität der Sicherheit
Lange war Verteidigungstechnologie in Deutschland ein Tabuthema für Risikokapitalgeber. Das hat sich grundlegend geändert. Ganz oben auf der Watchlist steht neben dem Münchner Start-up Helsing nun das 2024 gegründete Black Forest Labs. Das Geschäftsmodell ist faszinierend, weil es die Grenzen zwischen kreativer Zerstörung und Sicherheitstechnologie verwischt. Es basiert auf der Entwicklung proprietärer State-of-the-Art-Modelle für generative Videoerzeugung. Nach einer spektakulären 300-Mio.-USD-Runde im Dezember 2025 katapultierte sich die Bewertung auf satte 3,25 Milliarden USD. Das Start-up ist damit Deutschlands wertvollste KI-Firma und beweist, dass Europa bei Generative AI den Anschluss nicht verloren hat. Der globale Siegeszug deutet sich 2026 unter anderem in einem mehrjährigen Vertrag mit Meta sowie in Kooperationen mit US-Plattformen wie X und Hollywood-Studios an, die Produktionskosten senken wollen. Mitgründer Robin Rombach prognostizierte im Sifted-Podcast: „2026 wird generative Video-KI zum industriellen Standard in der Medienproduktion.“ Doch auch bei der Simulation für Sicherheitsszenarien spielt die Technologie eine wachsende Rolle.
Ein weiterer Schlüsselakteur ist Stark Defence. Das 2024 gegründete Münchner Start-up adressiert eine Lücke der modernen Kriegsführung: asymmetrische Bedrohungen. Stark Defence fokussiert sich auf softwaredefinierte, autonome Drohnensysteme, die „on the edge“ entscheiden und nicht auf ständige Funkverbindung angewiesen sind. Dass das Start-up durch seine KI-Schwarmtechnologie massiv an Bedeutung gewinnen wird, hat sich Ende Februar 2026 eindrucksvoll bestätigt: Der Haushaltsausschuss des Bundestages gab einen Auftrag über 540 Millionen Euro für Kampfdrohnen frei, den sich Stark Defence (Modell „Virtus“) und das nach einer Mega-Runde im Sommer 2025 mittlerweile mit 12 Milliarden Euro bewertete Münchner Unicorn Helsing (Modell „HX-2“) teilen. Um diese rasante Skalierung zu stemmen, hat Stark Defence kürzlich das Berliner Software-Start-up Pleno übernommen und eine neue Serienfertigung im britischen Swindon eröffnet. Mitgründer Florian Seibel dazu: „Unser Ziel für 2026 ist die erste vollautonome Verteidigungslinie für Europa.“
Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard
Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.
Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.
Das Team: Konzern-Know-how trifft Deep-Tech
Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.
Das Problem: Fragmentierung als Kostentreiber
Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.
Der USP: Schwarmintelligenz statt zentralem Broker
Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.
- Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
- Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
- Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.
Die Herausforderung: Die Open-Source-Falle im B2B
Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.
Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.
Der Wettbewerb
Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.
- Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
- Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
- Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.
Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.
Fazit: Infrastruktur statt App-Spielerei
Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.
Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen
Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:
1. Open-Source als trojanisches Pferd
Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.
2. Die blinden Flecken der Tech-Giganten besetzen
Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.
3. Regulatorik als Vertriebsturbo nutzen
Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.
Cyber Security Report 2026
Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.
Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.
Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.
Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten
Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.
Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.
Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil
Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.
Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.
Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken
Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.
IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.
Fazit
Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.
Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?
Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:
- Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
- Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
- Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
- Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.
Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.
Wachstum ohne innere Klarheit ist teuer
Serie: Führen im Start-up, Teil 5: Warum viele Start-ups nicht am Markt scheitern, sondern an innerer Unklarheit, Entscheidungsdruck und fehlender Selbstführung.
Der unbequeme Gedanke: Die meisten Start-ups scheitern nicht an einer falschen Idee. Sie geraten in schwierige Krisen, weil Führung unter Druck nicht klar bleibt.
Märkte sind volatil. Kapital ist knapp. Wettbewerb ist hart. Das ist bekannt – und in gewisser Weise kalkulierbar.
Was deutlich seltener einkalkuliert wird, ist der eigene innere Zustand. Doch genau dort entscheidet sich, ob Wachstum trägt – oder bricht.
Entscheidungsdruck entlarvt
Unter Druck zeigt sich nicht nur Strategie. Unter Druck zeigt sich Persönlichkeit.
- Wird eine Entscheidung getroffen, um Orientierung zu schaffen – oder um Unsicherheit nicht spüren zu müssen?
- Wird Tempo gewählt, weil es sinnvoll ist – oder weil Stillstand Angst auslöst?
- Wird Kritik integriert – oder abgewehrt?
Diese Unterschiede tauchen in keinem Pitch-Deck auf. Aber sie sind im Unternehmen spürbar. Und sie vervielfachen sich mit jeder Skalierungsstufe.
Wenn Selbstführung fehlt
Selbstführung bedeutet nicht Achtsamkeit im Kalender. Sie bedeutet Urteilskraft unter Spannung. Wer seine eigenen Reaktionsmuster nicht kennt, trifft Entscheidungen aus innerer Aktivierung – nicht aus Klarheit. Wer sich selbst nicht hinterfragt, baut Strukturen, die ihn bestätigen. Wer Macht nicht reflektiert, verteidigt sie.
Das ist kein moralisches Problem. Es ist ein systemisches. Organisationen übernehmen den inneren Zustand ihrer Führung – schneller, als vielen bewusst ist.
Die betriebswirtschaftliche Dimension
Innere Unklarheit bleibt nicht psychologisch. Sie wird operativ. Sie zeigt sich in strategischen Zickzackbewegungen, die Ressourcen binden.
- In Führungswechseln, die Vertrauen kosten.
- In Teams, die vorsichtiger werden, statt mutiger.
- In Produktentscheidungen, die aus Druck entstehen – nicht aus Überzeugung.
Das sind keine weichen Effekte. Diese Zickzackbewegungen führen zu Fluktuation, Reibungsverlusten, verlängerten Entscheidungszyklen und sinkender Innovationsgeschwindigkeit.
Der Markt reagiert selten sofort. Aber er reagiert konsequent. Und nicht selten ist das, was später als Marktproblem beschrieben wird, in Wahrheit ein Führungsproblem unter Druck gewesen.
Die stille Asymmetrie
Der vielleicht unbequemste Gedanke: Viele Gründer*innen investieren mehr Energie in Pitch-Decks als in die Reflexion ihrer eigenen Entscheidungslogik.
Sie analysieren Märkte bis ins Detail – aber nicht ihre eigenen Reaktionsmuster. Sie professionalisieren Prozesse – aber nicht ihre Selbstführung.
So entsteht eine stille Asymmetrie: Das Unternehmen wächst schneller als die innere Reife seiner Führung. Skalierung toleriert das eine Zeit lang. Dauerhaft jedoch nicht.
Der eigentliche Punkt des Scheiterns
Vielleicht liegt der größte Irrtum junger Unternehmen nicht im Marktverständnis, sondern im Glauben, dass Führung sich automatisch mitentwickelt. Eine Art Nebenprodukt.
Wachstum verstärkt alles, was bereits da ist. Klarheit ebenso wie Unsicherheit. Reife ebenso wie blinde Flecken. Und genau deshalb sind die entscheidenden Momente selten spektakulär.
- Es sind die nicht geführten Gespräche.
- Die Müdigkeit, die niemand ernst nimmt.
- Der Widerspruch, der nicht mehr geäußert wird.
- Die Entscheidung unter Druck, die später nicht mehr hinterfragt wird.
Nichts davon wirkt dramatisch. Bis es Wirkung entfaltet.
Unternehmen scheitern selten an einem einzelnen Fehler. Sie scheitern an kumulierten Unachtsamkeiten. An Momenten, in denen niemand innehält. An Phasen, in denen Tempo wichtiger wird als Bewusstsein.
Vielleicht ist das die eigentliche Zumutung dieser Serie: Dass nicht der Markt der größte Unsicherheitsfaktor ist. Sondern der Zustand derjenigen, die führen.
Und dass Scheitern manchmal dort beginnt, wo niemand hinsieht.
Führung entsteht nicht im Erfolg. Sie zeigt sich im Umgang mit Druck.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5
Der dritte Teil unserer Serie behandelt, warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren. Hier zum Nachlesen: https://t1p.de/v8q2k
Im vierten Teil unserer Serie liest du: Warum schnelles Wachstum ohne Reife zur strukturellen Gefahr werden kann. Hier zum Nachlesen: https://t1p.de/963rb
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
Der Milliarden-Coup: Wie Neura Robotics zur globalen KI-Macht aufsteigen will
Nach unserer Coverstory über Gründer David Reger und der 120-Millionen-Euro-Finanzierung im Januar 2025, zündet das Metzinger Robotik-Start-up Neura Robotics nun offenbar die nächste Stufe. Mit einer kolportierten Bewertung von 4 Milliarden Euro und dem Krypto-Giganten Tether als Investor greift das Unternehmen im globalen Haifischbecken der Humanoiden nach der Marktführerschaft.
Es war absehbar, dass die 120 Millionen Euro aus der Series-B-Runde nur das Warm-up waren. Laut übereinstimmenden Medienberichten (unter anderem von Bloomberg und der Financial Times) steht Neura Robotics vor dem Abschluss einer gigantischen Finanzierungsrunde in Höhe von rund 1 Milliarde Euro (ca. 1,2 Milliarden US-Dollar). Damit würde sich die Unternehmensbewertung auf etwa 4 Milliarden Euro katapultieren. Neura stiege somit endgültig in die absolute Top-Liga der europäischen Tech-Einhörner auf. Das Unternehmen selbst wollte die Berichte auf Nachfrage bislang nicht kommentieren.
Krypto-Milliarden für DeepTech: Der Tether-Faktor
Was diesen Deal in der Tech-Welt so einzigartig macht, ist die Herkunft des Kapitals. Angeführt wird die Runde laut den Berichten von der Tether Holdings SA, dem Emittenten des weltweit größten Stablecoins. Das ist kein Zufall, sondern Teil einer strategischen Neuausrichtung: Tether nutzt seine enormen Krypto-Gewinne (allein in den ersten drei Quartalen 2025 über 10 Milliarden Dollar), um ein „Real-World“-Portfolio aufzubauen – von KI-Rechenzentren über Energie bis hin zu zukunftsweisender Robotik. Für Neura würde das den Zugang zu einem extrem liquiden Investor bedeuten, der bereit ist, die kapitalintensive Skalierung von Hardware langfristig zu stützen.
Das globale Haifischbecken: Metzingen gegen das Silicon Valley
Dieses Kapital ist bitter nötig, denn der Markt für humanoide und kognitive Robotik wird aktuell massiv von US-Hyperscalern und chinesischen Speedbooten befeuert. Auf der einen Seite steht Elon Musk mit Tesla Optimus und enormer Skalierungsmacht. Auf der anderen Seite agieren hochfinanzierte US-Start-ups wie Figure AI, die mit Milliarden von Microsoft und dem KI-Gehirn von OpenAI ausgestattet sind. Hinzu kommen chinesische Hersteller wie Unitree, die mit staatlicher Förderung extrem günstige Modelle auf den Markt werfen.
In diesem Milliarden-Rennen positioniert sich Neura Robotics als europäische Speerspitze. Das Unternehmen liefert einen technologischen Gegenentwurf, der Kunden wie Kawasaki Heavy Industries und Omron bereits überzeugt hat – laut CEO David Reger liegen die Auftragsbücher bei einem Volumen von fast 1 Milliarde US-Dollar.
Der Burggraben: Wie sich Neura Robotics positioniert
Um gegen die Tech-Giganten zu bestehen, setzt das Start-up auf einen technologischen Burggraben. Mit diesen Alleinstellungsmerkmalen will sich Neura von der Konkurrenz abheben:
- „Physical AI“ statt umgebauter Chatbots: Während viele Konkurrenten textbasierte KI-Modelle nachträglich in Roboter integrieren, betont Neura, seine KI von Grund auf für die physische Welt gebaut zu haben. Die Roboter verfügen über ein multisensorisches System: Sie sehen in 3D, sollen Sprache im Fabriklärm erkennen und durch haptisches Feedback ein echtes "Fingerspitzengefühl" besitzen.
- Sicherheit ohne Käfige: In traditionellen Fabriken arbeiten Roboter hinter teuren Schutzzäunen. Neuras Modelle verfügen über eine patentierte Sensorik (Touchless Safe Human Detection). Sie sollen Menschen in Echtzeit erkennen, berührungslos stoppen oder ausweichen. Dadurch können Mensch und Maschine ohne teure Fabrikumbauten direkt im selben Raum arbeiten.
- Die Plattform-Strategie: Das Start-up baut nicht nur einen Roboter. Die kognitive KI fungiert als Betriebssystem, das in verschiedene Hardware-Formen gegossen wird – sei es der Humanoide 4NE-1 oder der hochpräzise kognitive Cobot MAiRA. Die Idee: Macht ein Roboter im Netzwerk einen Fehler, lernen alle anderen weltweit daraus. Ein Ökosystem, das zudem durch strategische Partnerschaften mit Giganten wie Nvidia und Schaeffler gestützt wird.
- Fokus auf Datensouveränität: Von der KI über die Steuerungssoftware bis hin zu den Sensoren entwickelt Neura Kernkomponenten im eigenen Haus. Dieser "Made in Germany"-Ansatz garantiert aus Unternehmenssicht höchste Datensicherheit. Für westliche Industrieunternehmen ist das ein massives Argument gegenüber asiatischen oder US-amerikanischen Herstellern.
„We serve humanity“: Klare Kante gegen Rüstungsdeals
Trotz des rasanten Wachstums bleibt David Reger seinen Prinzipien treu – ein Aspekt, den wir bereits in unserer Coverstory beleuchtet haben. Der Gründer positioniert seine Roboter strikt als Zivil- und Helfermaschinen für Industrie und Haushalt. Lukrative Anfragen aus der Rüstungsindustrie lehnt das Unternehmen kategorisch ab. Der Humanoide 4NE-1 soll den Menschen entlasten, nicht ersetzen oder bedrohen. Mit dieser ethischen Linie setzt Neura einen bewussten Gegenpol zu einem Markt, der teilweise stark militärisch geprägt ist.
Fazit: Der „iPhone-Moment der Robotik“
Analysten von Barclays schätzen, dass der Markt für KI-basierte Roboter und autonome Maschinen bis 2035 auf rund 1 Billion Dollar anwachsen wird. Mit der erwarteten Milliarden-Finanzierung und dem ehrgeizigen Ziel, bis 2030 rund 5 Millionen Einheiten zu produzieren, unterstreicht Neura Robotics seinen Anspruch auf die globale Weltspitze. Für das Metzinger Start-up hat die Phase der weltweiten Skalierung gerade erst begonnen.
MedTech-Start-up RAYDIAX holt 7,5 Mio. Euro für neuartiges CT-System
RAYDIAX sichert sich 7,5 Mio. Euro, um mit einem speziell für minimal-invasive Eingriffe entwickelten Computertomographen die Krebsbehandlung zu verbessern. Doch der Weg vom universitären Forschungslabor in die globalen Operationssäle ist im hochregulierten Gesundheitsmarkt lang. Ein Blick auf ein DeepTech-Geschäftsmodell, das sich nun in der klinischen Praxis beweisen muss.
Die erfolgreiche Series-A1-Finanzierungsrunde über 7,5 Millionen Euro für RAYDIAX markiert einen wichtigen Meilenstein von der universitären Forschung in den Gesundheitsmarkt. Das 2022 gegründete Unternehmen mit Hauptsitz im Magdeburger Wissenschaftshafen ist eine Ausgründung des Forschungscampus STIMULATE und der Otto-von-Guericke-Universität Magdeburg. Unter der Führung eines fünfköpfigen Gründerteams – bestehend aus CEO Dr. Thomas Hoffmann, Dr. Tim Pfeiffer, Dr. André Mewes, Benjamin Fritsch und Robert Frysch – konnte das Start-up nach einer erfolgreichen Seed-Phase nun erhebliche Mittel für den Eintritt in die klinische Phase sichern.
Das frische Kapital setzt sich aus 5 Millionen Euro Venture Capital von bestehenden Business Angels, dem Bestandsinvestor bmp Ventures mit den IBG Fonds sowie dem neu eingestiegenen GETEC Family Office um Dr. Karl Gerhold zusammen. Ergänzt wird diese Summe durch 2,5 Millionen Euro Fördermittel aus dem hochkompetitiven EIC Accelerator-Programm der Europäischen Kommission, das gezielt disruptive Deep-Tech-Innovationen mit hohem Skalierungspotenzial unterstützt.
TACT: Computertomographie für den OP neu gedacht
Im Zentrum dieser ambitionierten Wachstumspläne steht der Therapieassistenz-Computertomograph „TACT“, den RAYDIAX dediziert für minimal-invasive Krebstherapien entwickelt. Anders als herkömmliche CTs optimiert das Unternehmen sein System sowohl im Hardware- als auch im Softwarebereich speziell für den interventionellen Einsatz bei der Therapieplanung, -durchführung und -kontrolle. Wie Steffen Schmidt, CFO der GETEC-Gruppe, hervorhebt, ermöglicht die innovative Technologie eine fokussierte Live-Bildgebung, welche die Strahlenbelastung für Patient*innen und Operateur*innen senkt und die Operationszeit verringert.
Zudem bietet das System durch eine größere Geräteöffnung völlig neue Operationsmethoden im CT, wie beispielsweise den Einsatz von Robotik. Der Markt für solche Lösungen wächst, da minimal-invasive Eingriffe angesichts einer alternden Bevölkerung und steigender Krebsinzidenzen massiv an Bedeutung gewinnen. Sie ermöglichen in vielen Fällen eine schonendere Behandlung im Vergleich zu offenen chirurgischen Eingriffen, verkürzen potenziell Operations- sowie Liegezeiten, verringern Komplikationen und können so zusätzliche Behandlungskapazitäten schaffen, um die Krankenhausstrukturen zu entlasten.
Harter Wettbewerb und regulatorische Hürden
Trotz der vielversprechenden Technologie steht das Geschäftsmodell in der Praxis vor erheblichen Herausforderungen. Der globale Markt für medizinische Bildgebung ist hart umkämpft, und der Vertrieb an Kliniken ist durch extrem lange, hochkomplexe B2B-Entscheidungszyklen geprägt. RAYDIAX tritt diesem Wettbewerb entgegen, indem es anstrebt, eine funktional dringend benötigte, neue Gerätekategorie in der interventionellen Onkologie zu etablieren, um so eine Lücke im OP-Betrieb zu füllen.
Der Beweisdruck auf dem jungen Unternehmen ist dennoch enorm: Das neu eingeworbene Kapital wird nun für First-in-Human-Studien eingesetzt, um die frühe klinische Evidenz am Patienten zu generieren. Diese Phase legt die Grundlage für die regulatorische Zulassung und kommerzielle Skalierung. Parallel dazu erfordert die Weiterentwicklung zur Serienreife einen konsequenten Ausbau in den Bereichen Vertrieb, Produktion und Qualitätsmanagement, um die ersten kommerziellen Installationen systematisch vorzubereiten.
Lehrstück für europäisches DeepTech
Dieser Fall zeigt eindrucksvoll die Realität und die hohen Anforderungen europäischen DeepTech-Unternehmertums. Der Abschluss dieser Finanzierungsrunde belegt deutlich, wie essenziell die intelligente Kombination aus wissenschaftlicher Grundlagenforschung, klassischem Risikokapital und strategischen europäischen Fördergeldern ist. Nur so lässt sich die extrem kapitalintensive Entwicklungsphase von Hardware in der Medizintechnik erfolgreich überstehen. Wenn es dem Gründerteam nun gelingt, die klinische Wirksamkeit in der Praxis zu belegen und die regulatorischen Hürden zu meistern, hat dieses Spin-off das Potenzial, die Anwendung minimal-invasiver Krebstherapien erheblich auszuweiten.
eeden: Die Alchemie der Altkleider
Das Münsteraner Unternehmen eeden verwandelt Textilmüll in hochwertige Rohstoffe. Mit Millioneninvestments baut das Team um Steffen Gerlach und Tobias Börnhorst nun die erste Demonstrationsanlage auf.
Steffen Gerlach saß entspannt mit seinem Schulfreund Reiner Mantsch auf einer Couch in einer Kölner Wohngemeinschaft. Mantsch hatte zuvor an der Universität in Mönchengladbach Textiltechnik studiert. Er berichtete leidenschaftlich von seinen naturwissenschaftlichen Forschungen zur Kreislaufwirtschaft. Dieses Gespräch veränderte Gerlachs gesamte berufliche Planung radikal. Mantsch suchte jemanden für die Marktseite seiner technischen Vision. Gerlach war sofort fasziniert von dem ökonomischen Potenzial. Er wollte wissen, ob man daraus ein echtes Unternehmen formen kann. „Das war der eigentliche Startpunkt für eeden. Wir entschieden uns für einen vollen Fokus auf das Projekt. Und wir wollten das Recyclingproblem der Branche grundlegend lösen“, erinnert sich Gerlach.
Der langsame Weg zum technologischen Durchbruch
Es gab keinen plötzlichen Heureka-Moment in einem winzigen und improvisierten Labor. Die Entwicklung war eher eine gezielte Suche nach einer Problemlösung. Mantsch war früher Leistungssportler und brachte den nötigen Fokus mit. Er sah den Frust seiner Kommilitonen nach Praktika in der Industrie. Die Branche wirkte starr und wenig dynamisch für junge Talente. Das Duo suchte stattdessen nach den Megatrends der Zukunft. „Die Kreislaufwirtschaft kristallisierte sich schnell als das zentrale Thema heraus. Ich habe die Marktseite intensiv analysiert und viele Gespräche geführt“, so Gerlach. Er erkannte die Verknüpfungen zwischen technischer Machbarkeit und ökonomischen Anforderungen. Die Suche nach dem technologischen Sweetspot dauerte Monate. Am Anfang stand lediglich die reine Faszination für das Recycling. Es war ein schleichender Prozess mit vielen Etappenentscheidungen.
Die wachsende Last der globalen Fast Fashion
Das Umweltproblem der globalen Textilindustrie ist mittlerweile gewaltig. Die Branche verdoppelt ihren Durchsatz alle 20 bis 30 Jahre. Jährlich werden mittlerweile mehr als 120 Mio. Tonnen Textilien produziert. Nach Angaben der Ellen MacArthur Foundation werden weltweit ungefähr zwei Drittel dieser Mengen praktisch direkt nach der Nutzung entsorgt; sie landen auf riesigen Deponien oder werden ungenutzt verbrannt. In Deutschland steht das klassische Rücknahmesystem laut Experten vor dem Kollaps. Es gibt nach seiner Aussage derzeit eine gestiegene Anzahl an Insolvenzen bei Sammel- und Sortierbetrieben. Die Qualität der Kleidung sinkt durch den Trend zur Fast Fashion massiv. Der Wiederverkauf der gebrauchten Ware lohnt sich oft nicht mehr. Neuware aus Asien ist meistens günstiger als Second Hand-Stücke aus Europa. In Deutschland verursacht die Entsorgung einer Tonne Altkleider zudem Kosten – das Material wird somit zur finanziellen Belastung für die Sammel- und Sortierbetriebe.
Chemische Trennung als industrieller Schlüssel
Das Unternehmen aus Münster setzt genau an diesem Punkt an. Die Technologie ermöglicht die Trennung von Baumwolle und Polyester und macht beide Materialien wieder nutzbar. Das ist entscheidend für den Erfolg der Kreislaufwirtschaft. Die meisten Textilien bestehen heute aus komplexen Mischgeweben. Gerlach erklärt, dass das Unternehmen aus dem Abfall eine hochwertige Cellulose und chemische Bausteine für neues Polyester gewinnt. Die Cellulose dient als sauberes Vorprodukt für die neue Faserherstellung. Das Polyester wird in seine Grundbausteine zerlegt, die für die Herstellung von neuem Polyester verwendet werden können. „Wir stellen aus Baumwolle eine hochwertige Cellulose her und gewinnen aus dem Polyester die chemischen Bausteine zurück“, sagt Gerlach. Beide Materialströme können direkt wieder in der Textilproduktion eingesetzt werden. Damit wird der Kreislauf zwischen Abfall und Kleidung geschlossen. Seit Anfang 2025 hilft zudem eine neue gesetzliche Regelung. Die EU-weite Getrenntsammlungspflicht für Textilabfälle ist in Kraft getreten: Unternehmen dürfen Textilien nun nicht mehr über den Restmüll entsorgen. Das sichert den Zugang zu großen Mengen an Rohstoffen.
Harte Verhandlungen in der Welt des Wagniskapitals
Der Weg von der ersten Idee zur fertig gebauten Industrieanlage ist lang. Deeptech-Unternehmen brauchen oft viel Geduld und Zeit für die Entwicklung. Das erfordert Investoren mit einem sehr langen Atem. In einer frühen Phase kam der High-Tech Gründerfonds an Bord. Auch die NRW.Bank und der TechVision Fonds unterstützen das Vorhaben. Später stiegen Forbion und der Chemiekonzern Henkel als Investor ein. Gerlach erinnert sich im Gespräch an einen intensiven Lernprozess bei den ersten Finanzierungsrunden. Man müsse technische Begeisterung mit harten Umsatzprognosen anreichern. Auch D11Z.Ventures, das Family Office von Dieter Schwarz (Lidl/Kaufland), investierte in das Unternehmen. Die Investoren verstehen laut Gerlach die Entwicklungszyklen und Skalierung von Deeptech-Unternehmen. Mittlerweile flossen über 20 Mio. EUR an Kapital in die Firma. Dieses Geld ermöglicht nun den nächsten großen Schritt.
Ein neues Team für die industrielle Skalierung
Das Start-up ist mittlerweile den Kinderschuhen entwachsen. In Münster entsteht derzeit eine industrielle Demonstrationsanlage. Gerlach erinnert sich an den Moment der Schlüsselübergabe: Zuerst wirkte die leere Halle riesig auf das Team. Inzwischen planen die Ingenieure bereits jeden Zentimeter der Fläche. Das Team ist auf über 25 Köpfe gewachsen. Es ist eine Mischung aus jungen Talenten und erfahrenen Kräften. Viele Mitarbeitende wechselten von großen Konzernen wie BASF nach Münster. Gerlach beobachtet eine große Lust auf die Arbeit an innovativen Prozessen. Die flachen Hierarchien im Unternehmen ziehen Experten an. Er schätzt das Know-how dieser Fachkräfte für den Anlagenbau. Erfahrene Chemiker bringen eine neue Qualität in die Prozesse. Die Zusammenarbeit zwischen Alt und Jung funktioniert hervorragend.
Führung zwischen Agilität und unternehmerischer Verantwortung
Die Unternehmenskultur hat sich mit der Größe weiterentwickelt. Gerlach betont, dass viele Impulse direkt aus der Belegschaft kommen. So wurde die Regelung für die Präsenz im Büro gemeinsam erarbeitet. Die Mitarbeitenden wünschten sich feste Tage für den Austausch. „Die schönsten Tage sind jene mit viel Begegnung“, berichtet Gerlach. Die bürokratischen Pflichten eines Geschäftsführers gehören einfach dazu. Trotzdem bleibt die Mission der Firma der wichtigste Treiber. Die Motivation im gesamten Team sei extrem hoch. Jeder packt an und treibt das Unternehmen voran. Der Spagat zwischen Entwicklung und Business ist fordernd. Gerlach jedoch genießt diese tägliche Herausforderung sehr.
Der Standort Deutschland als Zentrum für Innovation
Viele Fachleute kritisieren die Bedingungen für die Chemieindustrie. Hohe Energiekosten belasten die traditionsreichen Unternehmen stark. Gerlach sieht das differenzierter aus der Perspektive von innovativen Start-ups: „Für die Entwicklung neuer Technologien ist der Standort Deutschland weiter exzellent. Und die Qualifikation der Technologen ist hervorragend. Die aktuelle Krise führt bei uns auch zu Bewerbungen von erfahrenen Talenten aus der chemischen Industrie – die hätte es vor einigen Jahren in der Menge nicht gegeben.“ Die vorhandene Infrastruktur sei ein klarer Vorteil. Auch Konzerne beobachten solche Innovationen genau. Die Nähe zum Mittelstand fördert zudem die Skalierung. Für die beiden Gründer ist die aktuelle Produktionsanlage nur ein Anfang. Langfristig soll die Technologie weltweit lizenziert werden; überall auf der Welt fällt schließlich Textilmüll an. Die Kombination aus Ingenieurskunst und Skalierung ist das Ziel. Auch die aktuellen Investoren von eeden sehen dieses globale Potenzial. Das Unternehmen will beweisen, dass sich Kreislaufwirtschaft lohnt. Deutschland bleibt dafür ein wichtiger Ankerpunkt.
Fördermittel: Worauf Gründer*innen von Beginn an achten sollten
Wichtige Dos and Don’ts bei der Fördermittelbeantragung.
Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.
In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.
Die Weichenstellung: Förderung ist eine Managemententscheidung
Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:
1) Aufbauphase: Fokus schaffen (unter anderem exist)
In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.
2) Projektphase: Planbar entwickeln (etwa ZIM)
Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.
3) Förderung in jeder Phase (Forschungszulage)
Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.
Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.
Fazit
Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.
Die Autorinnen
Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.
Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Retourendaten als ungenutztes Potenzial
Retouren sind dein größter Kostenfaktor – aber auch eine wertvolle Datenquelle. Unser Artikel samt Praxis-Checkliste zeigt dir, wie du sie strategisch zum Marketing-Booster machst!
Retouren kosten den Handel jedes Jahr Millionen Euro. Dabei wird oft verkannt, dass sie auch eine wertvolle Quelle für mehr Umsatz und eine bessere Customer Journey sind. Aktuelle Daten aus dem Jahr 2025 zeigen, wie sich das Retourenverhalten von Verbrauchern entwickelt – und welche ungenutzten Chancen hierbei für dich und dein E-Commerce-Unternehmen liegen.
Die wichtigste Erkenntnis aus dem aktuellen Retouren-Report 2025: Immer weniger Kunden senden ihre Einkäufe zurück. Im Jahr 2025 waren es nur noch 46 Prozent – im Vergleich zu 51 Prozent in 2024 und 67 Prozent im gleichen Zeitraum 2023.
Trotz dieser sinkenden individuellen Retourenneigung prognostiziert die Universität Bamberg für Deutschland im Jahr 2025 ein neues Rekordvolumen von 550 Millionen Paketen. Um dieser Diskrepanz zu begegnen, musst du als Online-Händler deine Zielgruppen basierend auf den bei der Retoure gewonnenen Einsichten künftig präziser ansprechen.
Wenn Daten ungenutzt verpuffen
Noch immer ignorieren viele Online-Shops, wer welche Produkte warum zurückschickt. Betrachtest auch du Retouren oft ausschließlich aus der reinen Umsatzperspektive und übersiehst die damit verbundenen wertvollen Details zu Zielgruppen, Produkten und Kanälen? Viele erfassen zwar Retourengründe, doch nur ein Bruchteil wertet diese systematisch und automatisiert aus. Dabei könntest du genau diese Daten nutzen, um ein tiefgreifendes Verständnis für das Kauf- und Retourenverhalten deiner Kunden zu gewinnen.
Ohne diese Analyse gehst du das Risiko ein, dass beispielsweise Produkte mit einer hohen Retourenquote weiterhin bei Zielgruppen beworben werden, die sie überdurchschnittlich oft zurücksenden. Nutze deine Tools konsequent und schließe Kundengruppen, die deine Marge gefährden, vom Targeting aus. Bei durchschnittlichen Bearbeitungskosten von 5 bis 20 Euro pro Retoure – im komplexen Sortiment sogar bis zu 50 Euro – entstehen dir sonst erhebliche, aber vermeidbare Verluste.
Ein weiteres Beispiel für verpasste Chancen zeigt ein Blick auf die Rückgabepräferenzen. Demnach wünschen sich Frauen deutlich häufiger alternative Rückgabeoptionen als Männer (63 Prozent versus 53 Prozent). Ein klarer Hinweis darauf, dass Standardangebote hier weniger gut ankommen. Dennoch sprichst du in der Praxis vermutlich beide Zielgruppen identisch an.
Retourendaten als Marketing-Kompass
Die Lösung hast du paradoxerweise wahrscheinlich bereits im Haus: deine Retourendaten. Durch eine systematische und strategische Auswertung lassen sie sich als wertvolle Marketing-Intelligence nutzen. Ein zentraler Baustein sind datenbasierte Analysen, die Kaufhistorie, Kontaktpunkte, Retourenmuster sowie bevorzugte Produktkategorien verknüpfen.
Eine gezielte Steuerung der Kundenansprache und der Produktpositionierung nimmt unmittelbar Einfluss auf das Retourenverhalten. So wird es dir möglich, Produkte mit hoher Retourenquote für bestimmte Zielgruppen aus dem Fokus zu nehmen. Wird beispielsweise ein bestimmtes Schuhmodell bei den über 45-Jährigen überdurchschnittlich oft retourniert, solltest du es für diese Altersgruppe nicht mehr in Marketingkampagnen ausspielen.
Ebenso wie dein Produktportfolio kannst du auch deine Services an klare Kundenwünsche anpassen: 58 Prozent der Kunden wünschen sich neben der klassischen „Retoure gegen Erstattung“ auch andere Optionen wie Umtausch, Gutscheine oder Reparaturen. Diese Erkenntnis ermöglicht dir differenzierte, zielgruppengerechte Serviceangebote und schützt dich vor einem kompletten Umsatzverlust.
Auch eine datenbasierte Kanalbewertung wird möglich: Während 33 Prozent der 18- bis 34-Jährigen Social Commerce als Einkaufskanal nutzen, sind es bei den über 55-Jährigen nur rund 15 Prozent. Retourendaten zeigen dir präzise, welche Kanäle für bestimmte Produkte problematisch sind und wo du Budgets umschichten musst.
Erst eine konsequente Analyse der Retourengründe macht es dir möglich, Produktinformationen zu optimieren und Vertriebskanäle belastbar zu bewerten. Statt Millionen für Streuverluste auszugeben, kannst du deine Customer Journey gezielt verbessern.
Silos ade: Zusammenarbeit von Marketing, E-Commerce und Produktteams
Entscheidend für die optimale Nutzung dieser Einsichten ist der regelmäßige Austausch zwischen deinen Marketing-, E-Commerce- und Produktteams. Im Zusammenspiel können Erkenntnisse aus Retourengründen nahtlos in Produktbeschreibungen und Kampagnenbotschaften einfließen.
Wenn dein E-Commerce-Team beispielsweise feststellt, dass bestimmte Farbvarianten bei spezifischen Altersgruppen besonders oft mit dem Grund „sieht anders aus als erwartet“ retourniert werden, können Marketing und Produktentwicklung sofort reagieren: durch bessere Produktfotos, angepasste Beschreibungen und eine differenzierte Zielgruppenansprache.
Diese abteilungsübergreifende Verschränkung erfordert jedoch neue Prozesse: Wöchentliche Retourendaten-Reviews, gemeinsame KPIs und automatisierte Alerts bei auffälligen Retourenmustern sind Pflicht. Nur so wird aus der reaktiven Kostenstelle ein proaktives Steuerungsinstrument.
Daten bringen nachhaltigen Erfolg
Wenn du Retourendaten strategisch nutzt, sparst du nicht nur Kosten. Du steigerst die Konversion, senkst Streuverluste und reduzierst den Kundenfrust. Echter Erfolg stellt sich schließlich erst dann ein, wenn der Kunde sich nicht nur für den Kauf entscheidet, sondern das Produkt am Ende auch behält.
Begreife Retouren daher noch stärker als präzise Datenquelle für eine bessere Kundenbeziehung. Wenn du deine Retourendatenanalyse jetzt professionalisierst, verwandelst du den Kostenfaktor endgültig in deinen Marketing-Booster.
Der Autor Artjom Bruch ist CEO der Trusted Returns GmbH
StartingUp-Checkliste: So machst du deine Retourendaten zum Marketing-Booster
Prüfe dein aktuelles E-Commerce-Setup. Wie viele dieser Fragen kannst du bereits mit „Ja“ beantworten?
- [ ] Präzise Datenerfassung: Erfasst du detaillierte Retourengründe (über ein Dropdown-Menü im Retourenportal) statt nur eines pauschalen „Gefällt nicht“?
- [ ] Dynamisches Targeting: Schließt du Kunden oder Segmente, die ein bestimmtes Produkt überdurchschnittlich oft retournieren, automatisch von der weiteren Bewerbung dieses Artikels aus?
- [ ] Zielgruppengerechte Rückgabe-Optionen: Bietest du im Retourenprozess aktiv Alternativen wie Direkt-Umtausch, Store-Credit (Gutschein) oder Reparatur an, anstatt sofort den Kaufpreis zu erstatten?
- [ ] Kanal-Rentabilitäts-Check: Analysierst du, ob Kunden, die über Plattformen wie TikTok oder Instagram kaufen, eine signifikant höhere Retourenquote aufweisen als Käufer aus dem E-Mail-Marketing?
- [ ] Silos aufbrechen: Gibt es ein regelmäßiges (z. B. wöchentliches) Meeting zwischen Marketing, E-Commerce und Produktmanagement, um auffällige Retourenmuster zu besprechen?
- [ ] Automatisierte Warnsysteme: Erhält dein Team einen automatischen Alert, wenn die Retourenquote eines neu gelaunchten Produkts innerhalb der ersten 48 Stunden einen definierten Schwellenwert übersteigt?
Je mehr Haken du setzen kannst, desto näher bist du am profitablen Retouren-Management.
