Gründer der Woche: Tresorit – hackergeprüfter Cloud-Dienst

Gründer der Woche, KW 49


44 likes

Tresorit ist ein junger europäischer Cloud-Dienst mit hackergeprüfter End-zu-End-Verschlüsselung, der bewusst nach den strengen EU-Datenschutzrichtlinien arbeitet. Über Datenmissbrauch, Hackerangriffe und das sichere Arbeiten in der Cloud sprechen wir mit Tresorit-CEO Istvan Lam.

Sie und Ihre Co-Gründer Szilveszter Szebeni und Gyorgy Szilagyi haben Ihr Start-up 2013 gegründet. Was war Ihr Antrieb, einen Cloud-Dienst zu entwickeln?

Ich interessiere mich schon seit Kindertagen für Kryptografie und habe einen sehr hohen Anspruch an die Sicherheit meiner persönlichen Daten. Als ich während meines Studiums keinen Cloud-Service fand, der meinen kritischen Anforderungen in puncto Datensicherheit gerecht wurde, entwickelte ich, erst für den Eigenbedarf, kurzerhand selbst eine Lösung. Aus diesem zunächst kleinen Software-Projekt ist mittlerweile eine vielversprechende Geschäftsidee entstanden: ein Cloud-Service, der die einfache und intuitive Bedienung mit einem Höchstmaß an Sicherheit verbindet und somit die Zusammenarbeit in Unternehmen optimiert.

 

Was waren die wichtigsten Steps bei der Realisierung?

Die wichtigste Herausforderung war und ist für uns die Zusammenstellung unseres Teams. Wir wachsen stetig weiter und sind damit immer auf der Suche nach neuen Talenten, die perfekt zu uns passen. Das ist bis heute die größte Challenge, aber glücklicherweise ist bisher immer alles glatt gelaufen!
 

Der Unternehmenssitz Ihres Start-ups ist die Schweiz. Sie selbst und Ihre Co-Gründer stammen aus Ungarn. Hat die Standortwahl spezielle Gründe?

Für uns war immer klar, dass unsere Server in Europa stehen werden, da wir an die strengen Datenschutzrichtlinien der EU glauben. Dass wir dann unseren Unternehmenssitz in der Schweiz etabliert haben, hat dabei mehrere Gründe: Zum einen haben ich und mein Professor in der Gründungsphase an der EPFL (École Polytechnique Fédérale de Lausanne) geforscht. Darüber hinaus ist die Schweiz Vorreiter in Sachen Datenschutz und war schon vor Edward Snowden bekannt für ihren internationalen Respekt für Privatsphäre. Auch Deutschland entwickelt sich in diesem Bereich rasant und wird mehr und mehr zum Freiheitskämpfer für Privatsphäre auf internationaler Ebene – ein Grund, warum der deutsche Markt für uns besonders spannend ist.
 

Sie werben damit, dass Ihr Cloud-Dienst einfach und intuitiv zu bedienen ist und dabei zugleich ein Höchstmaß an Sicherheit bietet. Das sollte doch jeder Cloud-Service bieten. Was unterscheidet Ihre Cloud-Lösung von den Wettbewerbern?

Anders als bestehende große Player, die derzeit keine Pläne für die Implementierung einer sicheren Verschlüsselung haben, sind bei Tresorit alle gespeicherten Daten garantiert sicher. Das Besondere ist das einzigartige und patentierte Verschlüsselungskonzept. Die Dateien werden sowohl auf dem Rechner als auch in der Cloud verschlüsselt, sodass selbst wir niemals Einblick in die Informationen unserer Nutzer erhalten. Selbst wenn ein Hacker Zugang zu den Dateien erhalten würde, könnte er nichts mit ihnen anfangen. Gleichzeitig behält der Urheber bei uns immer die Kontrolle über seine Daten, sogar nachdem er sie mit anderen Personen geteilt hat. Der zuständige Administrator legt ganz einfach die Zugriffsbeschränkungen für jedes Dokument fest: Welche Nutzer dürfen bestimmte Ordner öffnen und inwiefern dürfen Dateiinhalte bearbeitet werden. Auch ein Zeitlimit für den Zugriff, z.B. bei Projektarbeit, kann im Handumdrehen eingefügt werden. Das ist bei anderen Anbietern leider nicht der Fall. Dabei hält sich noch immer das Vorurteil, dass Datensicherheit kompliziert sein muss. Hier setzen wir mit unserer intuitiven Handhabung an und beweisen, dass man seine Daten auch ohne Vorwissen in der Cloud schützen kann.
 

Wer sind Ihre Kunden?

Wir konnten weltweit bereits über 10.000 Nutzer gewinnen. Neben Privatpersonen gehören zu unserer Zielgruppe vor allem kleine und mittelständische Unternehmen, die nach einer einfachen, aber garantiert sicheren Lösung suchen, um ihre Unternehmensdaten in der Cloud zu verwalten. Etwa für Anwaltskanzleien oder Unternehmensberatungen ist das sehr wichtig. Zu unseren Unternehmenskunden gehören u.a. Apogee Law Group, Little Venice Partners, Alpha Independent Mortages.
 

Wie immer, wenn es um Cloud-Dienste geht, stellt sich die Frage nach der Sicherheit des Algorithmus. Sie laden Hacker mit Aussicht auf ein Preisgeld von 50.000 USD dazu ein, das Verschlüsselungskonzept zu knacken – ist das mehr als eine Marketing-Kampagne?

Definitiv! Unser Entwicklerteam besteht aus zahlreichen großartigen Programmierern, die jeden neuen Code auch als ihre persönliche Herausforderung verstehen. Die Aktion, außenstehende Hacker einzuladen, sich an unserem Algorithmus zu versuchen, entstand deshalb auch zunächst intern aus reiner Neugier, ob unser Code selbst die besten Programmierer übersteht. Nachdem mehr als 1000 Hacker erfolglos versucht haben, unser System zu knacken, haben wir beschlossen, diese Tatsache auch in unsere Kommunikation aufzunehmen.
 

Sie sind seit kurzem auch auf dem deutschen Markt aktiv. Gibt es hier besondere Voraussetzungen bzw. ist die Skepsis gegenüber dem Arbeiten in der Cloud hier besonders ausgeprägt?

Knapp jeder fünfte Deutsche sowie etwa 44 Prozent der deutschen Unternehmen nutzen mittlerweile die Cloud, um Unternehmensdaten, Fotos, Videos oder Dokumente online zu speichern. Eine besondere Skepsis gibt es auf dem deutschen Markt somit wohl nicht mehr. Was uns am deutschen Markt reizt, ist vor allem der hohe Anspruch der Menschen an Datensicherheit. Anders als z.B. in den USA, legen Deutsche in der Regel großen Wert auf den Schutz ihrer Privatsphäre sowie die Sicherheit ihrer persönlichen oder geschäftlichen Daten. Viele nutzen amerikanische Cloud-Services, vertrauen ihnen nach NSA-Skandal und Hackerangriffen jedoch nicht mehr. Und oft wissen sie gar nicht, dass es auch europäische Anbieter gibt. Unser Ziel ist es jetzt, den Nutzern zu zeigen, dass es sehr wohl eine Alternative gibt, die nicht nur garantiert sicher, sondern auch einfach zu nutzen ist.
 

Welches sind Ihre weiteren unternehmerischen Ziele?

Gerade bei US-amerikanischen Unternehmen gibt es die Tendenz, den Respekt für Privatsphäre zu vergessen. Wir möchten deshalb im ersten Schritt das Bewusstsein dafür schärfen, dass Sicherheit in der Cloud von zentraler Bedeutung ist. Langfristig wollen wir uns als Marktführer im Bereich Cloud-Sicherheit und Datenschutz positionieren, weil wir der Meinung sind, dass sensible Daten und geistiges Eigentum nie in die Hände von unautorisierten Dritten oder Cloud-Anbietern fallen darf.
 

Welche Tipps haben Sie für andere Gründer?

Gründer sollten vor allem ihrem Herzen folgen, aber gleichzeitig möglichst rationale Entscheidungen treffen. Am Ende entscheidet aber der Kunde. Findet man keine Kunden oder gibt es in einem Bereich schlichtweg keine Nutzer, müssen Gründer ihre Idee überdenken. Zusammengefasst könnte man also sagen: Folgt euren Herzen, aber optimiert euer Produkt stets anhand der Bedürfnisse eurer Zielgruppe!

Hier geht's zu Tresorit

Das Interview führte Hans Luthardt

Vorschläge für diese Rubrik an redaktion@starting-up.de

Diese Artikel könnten Sie auch interessieren:

Münchner Start-up Isar Aerospace bricht Testflug der „Spectrum“-Rakete aus Sicherheitsgründen ab

Der zweite Testflug der „Spectrum“-Trägerrakete des Münchner Raumfahrtunternehmens Isar Aerospace musste kurz vor der Triebwerkszündung gestoppt werden.

Ursache war nach Unternehmensangaben ein unbefugtes Boot, das in die maritime Sicherheitszone eingedrungen war. Bis das Areal geräumt werden konnte, verstrich das enge Startfenster zwischen 21:00 und 21:15 Uhr. Die Rakete blieb unbeschadet auf der Startrampe.

Sicherheitsmechanismus statt Fehlschlag

In der Raumfahrtbranche wird ein solcher Abbruch (ein sogenannter Scrub) nicht als technologischer Rückschlag gewertet, sondern als Beleg für greifende Sicherheitsmechanismen. Ein erheblicher Unterschied besteht zu einem tatsächlichen Fehlstart, bei dem Hardware verloren geht – wie es beim Erstflug der „Spectrum“ am 30. März 2025 geschah, als die Rakete nach knapp 30 Sekunden wegen eines Ausfalls der Lageregelung ins Meer stürzte.

Da die Rakete dieses Mal keinen technischen Defekt erlitt, werten die Ingenieure den abgebrochenen Countdown als erfolgreichen Härtetest der Bodenanlagen und der automatisierten Betankungsprozesse. Das Team um CEO Daniel Metzler hatte im Vorfeld betont, dass das primäre Ziel der Mission „Onward and Upward“ darin bestehe, kritische Systeme unter operativen Bedingungen zu validieren. Die nun gesammelten Daten fließen direkt in die Vorbereitung des nächsten Versuchs ein.

Die komplexe Logistik eines neuen Startfensters

Wann die „Spectrum“ erneut betankt wird, hängt von einem mehrstufigen Abstimmungsprozess ab. Nach der Sicherung der Rakete muss Isar Aerospace bei den norwegischen Behörden neue Sperrzonen beantragen. Damit Fischer, Frachtschiffe und Fluggesellschaften ihre Routen rechtzeitig anpassen können, müssen offizielle Warnungen für die Schifffahrt (NOTMAR) und den Luftraum (NOTAM) mit entsprechendem Vorlauf herausgegeben werden. Erst wenn diese bürokratischen Hürden genommen sind und Parameter wie das Wetter am Polarkreis übereinstimmen, kann ein neuer Countdown für die Nutzlast – darunter universitäre Kleinsatelliten der TU Berlin, der TU Wien sowie der norwegische FramSat-1 – beginnen.

Warum Andøya? Der strategische Vorteil im hohen Norden

Dass das Münchner Start-up diese logistischen Herausforderungen im hohen Norden auf sich nimmt, anstatt etwa den etablierten europäischen Weltraumbahnhof Kourou in Südamerika zu nutzen, hat strategische und physikalische Gründe.

Die Hauptkunden von Isar Aerospace betreiben kleine Erdbeobachtungssatelliten, die bevorzugt über die Pole fliegen, um die Erdoberfläche lückenlos zu erfassen. Von Andøya aus kann die Rakete auf direktem Weg sicher über das offene Europäische Nordmeer in diesen polaren Orbit starten, ohne Treibstoff für aufwendige Kurskorrekturen zu verbrauchen. Zudem spart der Transport der in Ottobrunn gefertigten Bauteile per LKW und Fähre nach Norwegen wertvolle Zeit und Kosten im Vergleich zu einer Verschiffung nach Französisch-Guayana.

Für Europa bleibt der anstehende Flug der „Spectrum“ ein wichtiges Puzzleteil auf dem Weg zu einem wettbewerbsfähigen, kommerziellen Zugang zum All. Sobald die Sperrzonen vor der norwegischen Küste neu eingerichtet sind, wird sich zeigen, ob das Münchner Unternehmen diese Lücke schließen kann.

Vom Solinger Start-up zum globalen Einhorn: Wie Dash0 die Observability-Giganten dekonstruiert

Das 2023 gegründete KI-Start-up Dash0 hat im März 2026 mit einer 110-Millionen-Dollar-Runde die magische Milliardenbewertung geknackt. Die Vision: Die Systemüberwachung von Software durch offene Standards, radikal faire Preismodelle und pragmatische KI zu revolutionieren. Doch der Frontalangriff auf US-Goliaths wie Datadog birgt strategische Risiken.

In der modernen Softwareentwicklung ertrinken IT-Teams in einer Flut aus Warnmeldungen, Logs und Metriken. Klassische Überwachungs-Tools (Observability) sind oft teuer, komplex und sperren Kunden in geschlossene Daten-Ökosysteme ein. Genau dieses Problem adressiert Dash0 – und hat damit in Rekordzeit Investoren und namhafte Kunden überzeugt. „Systemüberwachung ist heute kaputt: Sie ist zu laut, zu teuer und zu komplex“, bringt es Dash0-CEO und Mitgründer Mirko Novakovic auf den Punkt.

Die Gründer und der rasante Aufstieg zum Einhorn

Hinter Dash0 steht ein Quintett erfahrener Tech-Veteranen. Besonders Mirko Novakovic ist in der B2B-Szene ein Schwergewicht: 2020 verkaufte er sein vorheriges Start-up Instana für rund 500 Millionen US-Dollar an IBM. Dieser „Repeat Founder“-Status erklärt das enorme Vertrauen der Geldgeber.

Die Historie von Dash0 liest sich wie ein Start-up-Märchen im Zeitraffer: Nach der Gründung 2023 im nordrhein-westfälischen Solingen folgte Ende 2024 eine 9,5-Millionen-Dollar-Seed-Runde parallel zum Produktlaunch. Ein Jahr später sammelte das Team 35 Millionen Dollar ein.

Der Ritterschlag folgte nun im März 2026: Mit einer von Balderton Capital angeführten Series-B-Runde über 110 Millionen Dollar steigt Dash0 in den Kreis der Unicorns auf. Diesen Meilenstein verknüpft das Team mit einer klaren Kampfansage: „Mit den 110 Millionen Dollar, die wir heute bekannt geben, bringen wir autonome Abläufe zu jedem Entwicklerteam der Welt – noch bevor unsere Wettbewerber überhaupt begreifen, was mit ihnen geschieht.“

Das Produkt: Ein Frontalangriff auf die Industrie-Norm

Ein Blick unter die Haube zeigt, warum die Plattform so schnell wächst. Das Start-up dekonstruiert gezielt die Schwachstellen der etablierten Milliardenkonzerne:

  • Das Ende des „Vendor Lock-ins“: Dash0 basiert vollständig auf offenen CNCF-Standards (OpenTelemetry). Als Abfragesprache wird nativ PromQL genutzt, für Dashboards kommt das quelloffene Perses zum Einsatz. Das bedeutet für Technik-Entscheider: Würde Dash0 die Preise anheben, könnten sie ihre gesamten Dashboards und Alarme einfach mitnehmen und woanders hosten.
  • Radikales Pricing: Branchenriesen rechnen oft nach Datenvolumen (Gigabyte) oder Nutzerlizenzen ab, was bei wachsenden Systemen zu explodierenden Budgets führt. Dash0 rechnet rein nach der Anzahl der gesendeten Telemetrie-Datenpunkte ab. Unternehmen können unlimitiert Metadaten anhängen und unbegrenzt viele Entwickler auf das System lassen, ohne dass verdeckte Kosten anfallen.
  • Developer Experience (DX): Dash0 positioniert sich als Tool „von Ingenieuren für Ingenieure“. Die Plattform lässt sich für maximale Geschwindigkeit komplett per Tastatur steuern, und Konfigurationen können nahtlos als Code (Configuration as Code) in bestehende Entwicklungs-Pipelines integriert werden.

Dieser Ansatz zieht prominente Kunden an: Tech-Schwergewichte wie Vercel loben die drastisch verkürzte Zeit zur Fehlerbehebung, und auch Traditionskonzerne wie Porsche Digital setzen auf die offene Architektur von Dash0, um sich zukunftssicher aufzustellen. Um das technologische Fundament schnellstmöglich zu verbreitern, akquirierte Dash0 zudem im Februar 2026 das israelische Serverless-Start-up Lumigo.

Pragmatische KI statt Buzzword-Bingo

Während der Markt aktuell von generativen KI-Versprechen überflutet wird, positioniert sich Dash0 erstaunlich pragmatisch. Das Mantra des Start-ups lautet: „AI is an implementation detail.“ (KI ist ein Implementierungsdetail).

Der hauseigene Copilot „Agent0“ soll zwar autonome Analysen durchführen und Teams in Echtzeit entlasten, aber das primäre Ziel ist es, repetitive Aufgaben verlässlich und vor allem ohne Halluzinationen zu lösen. Die beste KI-Funktion, so das Credo der Gründer, sei diejenige, die der/die Nutzer*in liebt, ohne überhaupt zu merken, dass es sich um KI handelt.

David gegen Goliath in New York

Trotz des beeindruckenden Momentums steht Dash0 in der Skalierungsphase vor massiven Hürden:

  • Der Goliath-Wettbewerb: Dash0 tritt gegen etablierte US-Giganten wie Datadog, Dynatrace oder Grafana an. Um diesen Kampf zu führen, hat das Start-up seinen Hauptsitz mittlerweile von Deutschland nach New York verlegt. Dieser Schritt erfordert eine extrem hohe Cash-Burn-Rate im Enterprise-Vertrieb.
  • Der fehlende „Burggraben“: Was für Kund*innen hochattraktiv ist (offene Standards wie Perses und PromQL), beraubt Dash0 eines klassischen defensiven Lock-ins. Da ein Wechsel zu einem anderen Anbieter theoretisch leichter ist als bei geschlossenen Systemen, ist Dash0 dazu verdammt, permanent durch überlegene Usability und fehlerfreie KI zu überzeugen.

Fazit

Für die deutsche Start-up-Szene ist Dash0 ein exzellentes Paradebeispiel für modernes B2B-Hypergrowth. Die Story zeigt, wie man in scheinbar gesättigten Märkten durch konsequente Nutzerzentrierung, offene Standards und transparente Preise in unter drei Jahren zum Einhorn aufsteigen kann. Es ist der Beweis, dass deutsche DeepTech-Gründer*innen auf globaler Ebene nicht nur mitspielen, sondern die Spielregeln aktiv neu schreiben können.

Gründer*in der Woche: SpeakerMatching.com – Disruption auf der Bühne

Die Eventbranche wächst, doch die Suche nach den passenden Köpfen für die Bühne gleicht oft noch einem analogen Kraftakt. Mit der Plattform SpeakerMatching.com will eine erfahrene Seriengründerin den Spieß nun umdrehen. Es ist ein klassisches Plattform-Play ohne die üblichen Vermittlungsprovisionen – doch kann sich das Modell gegen etablierte Branchengrößen durchsetzen? Wir haben die Gründerin Henriette Hochstein-Frädrich befragt.

Hinter SpeakerMatching.com, im November 2025 als B2B-Marktplatz gelauncht, steht Henriette Hochstein-Frädrich. Sie kennt den Schmerz der Branche nicht nur vom Hörensagen. „Ich kenne den Markt nicht nur als Plattformunternehmerin, sondern auch aus zwei weiteren sehr praktischen Perspektiven: Seit vielen Jahren stehe ich selbst als Speakerin und Moderatorin auf Bühnen, und zugleich habe ich eigene Eventformate und Veranstaltungsreihen im Bereich modernes Female Empowerment konzipiert und umgesetzt“, erinnert sich die Gründerin.

„Gerade als Veranstalterin wurde mir immer wieder bewusst, wie zeitaufwendig, intransparent und teilweise zufallsgetrieben die Suche nach passenden Rednerinnen sein kann“, bringt sie das Kernproblem auf den Punkt. Gleichzeitig habe sie beobachtet, wie sich der Markt zunehmend professionalisiere: „Es gibt mehr Expertinnen, mehr Themen, mehr Formate, aber bislang keine wirklich zeitgemäße digitale Infrastruktur, die Angebot und Nachfrage effizient zusammenführt.“

Dass sie diese Infrastruktur bauen kann, hat sie in der Vergangenheit bewiesen: 2009 gründete sie Pharmatching.com, baute es zur Branchengröße auf und verkaufte es 2017. „Aus meinen früheren Plattformgründungen habe ich vor allem drei zentrale Lektionen mitgenommen: Erfolgreiche Marktplätze lösen ein echtes, konkretes Problem. Vertrauen und Qualität sind im B2B-Umfeld entscheidend. Und nicht zuletzt spielt Timing eine größere Rolle, als viele denken“, betont Hochstein-Frädrich.

Rollentausch statt Kaltakquise

Das Timing sei deshalb ideal, weil Veranstaltende heute Plattformlogiken und Self-Service-Modelle erwarten, wie sie sie aus anderen B2B-Märkten längst kennen. Der Kern von SpeakerMatching.com liegt in der Umkehrung des klassischen Buchungsprozesses. Veranstaltende formulieren ihr Gesuch kostenfrei auf der Plattform, woraufhin sich Speaker*innen direkt bewerben können. Das Start-up finanziert sich stattdessen über Abonnements für die Rednerinnen.

„Uns war von Anfang an wichtig, ein sehr niedrigschwelliges und zugleich faires Preismodell für Speaker*innen zu schaffen“, rechnet die Geschäftsführerin vor. Die monatlichen Mitgliedschaften liegen zwischen rund 59 und 89 Euro. „Wenn über die Plattform ein einzelner Auftrag im mittleren vierstelligen Bereich zustande kommt, hat sich die Investition für viele Redner*innen bereits mehrfach amortisiert.“ Sie stellt aber auch klar: „SpeakerMatching.com ist ein Marktplatz, kein Management- oder Vermittlungsvertrag.“

Doch wie verhindert man eine Flut an unpassenden Bewerbungen? „Die Sorge vor einer unüberschaubaren Bewerbungsflut ist absolut nachvollziehbar, gerade bei offenen Plattformmodellen“, räumt die Gründerin ein. Da Veranstaltende jedoch Parameter wie Budget, Zielgruppe oder Sprache sehr konkret vorgeben, entstehe eine starke Vorfilterung. „Unsere bisherigen Erfahrungen aus den ersten Monaten zeigen sehr deutlich: Unpassende ‚Blindbewerbungen‘ sind die absolute Ausnahme“, versichert Hochstein-Frädrich. Zwar sollen perspektivisch KI-basierte Funktionen eine stärkere Rolle spielen, doch die Vision bleibt menschlich: „Unser Ziel ist daher kein vollständig automatisiertes ‚Black-Box-Matching‘, sondern eine intelligente Plattform, die Entscheidungsprozesse vereinfacht und die Qualität der Interaktionen erhöht.“

Um das Problem des Bypassings – also den Abschluss an der Plattform vorbei – zu umgehen, werden Event-Gesuche zunächst anonymisiert veröffentlicht. „Erst wenn sie passende Bewerbungen erhalten und aktiv in den Austausch gehen möchten, geben sie ihre Identität preis“, erklärt die Gründerin den Prozess. „Wenn Speaker*innen über SpeakerMatching.com kontinuierlich relevante Anfragen erhalten und Veranstaltende effizient passende Expertinnen finden, entsteht eine stabile Win-Win-Dynamik. Genau darauf ist das Modell ausgelegt.“

Markt, Wettbewerb und organisches Wachstum

Der Markt wächst kontinuierlich, wird aber von großen Redneragenturen wie Speakers Excellence oder Premium Speakers dominiert. Diese arbeiten stark kuratiert und rufen oft hohe Vermittlungsprovisionen auf. Um in diesem zweiseitigen Markt das klassische Henne-Ei-Problem zu überwinden, verzichtet die Plattform auf der Veranstaltendenseite auf Gebühren.

Finanziert ist das Vorhaben bisher weitgehend aus eigener Kraft. „Aus meinen früheren Gründungen weiß ich, wie wichtig es gerade in der frühen Phase eines zweiseitigen Marktplatzes ist, Produkt, Zielgruppe und Marktmechanik zunächst sehr präzise zu verstehen und organisch zu entwickeln“, lautet ihr Credo. „Plattformmodelle brauchen Zeit, Vertrauen und kritische Masse, das lässt sich nicht ausschließlich mit Kapital ‚beschleunigen‘, sondern vor allem durch konsequenten Nutzen für beide Marktseiten“.

Dabei grenzt sie sich bewusst von stark kuratierten Agenturen ab. Der Mix aus etablierten Persönlichkeiten und neuen Stimmen sei genau das, was der Markt heute suche. Viele Unternehmen wünschen sich heute bewusst mehr Vielfalt auf ihren Bühnen. „Dabei verstehen wir Diversität nicht nur im klassischen demografischen Sinn, sondern auch als Vielfalt an Perspektiven, Erfahrungen und Denkweisen“, so Hochstein-Frädrich.

Den Vorstoß in Richtung Full-Service-Agenturen samt Ausfallversicherungen bremst sie indes ab. „Im Moment konzentrieren wir uns bewusst darauf, das Matching selbst so gut wie möglich zu machen. Alles Weitere kann – zumindest vorerst – auch von anderen Playern im Ökosystem übernommen werden.“

Fazit

Das Speaker-Business ist traditionell ein echtes People Business. Bei Keynotes für teils fünfstellige Honorare verlassen sich viele Großkund*innen gern auf die persönliche Beratung einer Agentur, die im Krankheitsfall sofort für Ersatz sorgt. Diesen Full-Service kann ein Self-Service-Marktplatz aktuell nur schwer vollumfänglich abbilden.

Dennoch ist SpeakerMatching.com ein mutiger und zeitgemäßer Angriff auf die verkrusteten und provisionsgetriebenen Strukturen der Eventbranche. Gelingt es, rasch eine kritische Masse an hochwertigen Event-Gesuchen zu generieren, hat die Plattform das Potenzial, Angebot und Nachfrage künftig deutlich schneller zusammenzubringen.

blue activity sichert sich 8,5 Mio. Euro für biozidfreie Kühlwasserbehandlung

Das Heidelberger CleanTech-Start-up blue activity schließt eine beachtliche Finanzierungsrunde ab. Mit einem unkonventionellen biologischen Ansatz fordert das Team die klassischen Verfahren der industriellen Kühlwasseraufbereitung heraus. Ein Blick auf das Geschäftsmodell, den Milliardenmarkt und die Hürden der Skalierung.

Das im Jahr 2021 gegründete Wassertechnologie-Start-up blue activity aus Heidelberg meldet den Abschluss einer weiteren großvolumigen Finanzierungsrunde in Höhe von 8,5 Millionen Euro. Das Unternehmen deklariert diese als Seed-Runde – ein aus journalistischer Sicht bemerkenswerter Schritt, da bereits Anfang 2023 der österreichische Investor Epoona in einer frühen Phase eingestiegen war. Die aktuelle Runde wurde gemeinsam von den VC-Fonds Wind Capital (Paris) und Venture Stars (München) angeführt, unter Beteiligung von Angel Invest (Berlin). Das frische Kapital soll die Produktentwicklung beschleunigen, das Team auf 15 Mitarbeitende erweitern und die kommerzielle Expansion in Europa vorantreiben.

Das Gründer-Duo

Hinter blue activity stehen CEO Lars Havighorst und Co-Founder sowie CTO Michael Simon. Die Gründung basierte auf der Mission, industrielle Verdunstungskühlsysteme chemiefrei und nachhaltig zu behandeln. Bemerkenswert ist Havighorsts Hintergrund: Vor seiner Zeit als CleanTech-Gründer war er rund 15 Jahre im Vertrieb der Finanzbranche tätig, bevor er den Quereinstieg in die Wassertechnologie wagte. Dabei ergänzt sich das Führungsduo: Während Havighorst die kommerzielle Skalierung treibt, verantwortet Simon als technologisches Rückgrat die Kombination aus neuartiger Mikrobiologie und IoT-Sensorik.

Technologie und Geschäftsmodell

Industrielle Verdunstungskühlanlagen verschlingen enorme Mengen an Wasser und stützen sich traditionell auf biozidbasierte Behandlungsprogramme. Blue activity setzt hier auf einen Paradigmenwechsel: Anstelle von Gefahrstoffen soll ein neuartiger technologischer Ansatz eine umweltfreundliche, chemiefreie und effiziente Wasseraufbereitung ermöglichen.

Der wirtschaftliche Pitch, mit dem das Startup bei der Industrie punkten will, stützt sich auf laut eigenen Angaben messbare Effekte:

  • Kostenreduktion: Das Unternehmen verspricht signifikante OPEX-Einsparungen von bis zu 15 % der gesamten Kosten der Kühlwasserbehandlung.
  • Anlageneffizienz: Diese sollen durch einen reduzierten Chemikalieneinsatz, geringeren Wartungsaufwand sowie eine verlängerte Lebensdauer der Anlagen erreicht werden. Berichte aus der Fachpresse (z. B. Handelsblatt, Industrieanzeiger) stützen die These der Effizienz und zitieren bei Bestandskunden Wasserverbrauchssenkungen von bis zu 38 Prozent.

Markt und Wettbewerb

Ein wesentlicher Treiber für das Geschäftsmodell ist das regulatorische Umfeld. Da Grenzwerte für Abwassereinleitungen zunehmend verschärft werden, werden traditionelle chemische Verfahren laut blue activity immer kostenintensiver und komplexer in der Handhabung. Die biologische Methode soll die Risiken im Zusammenhang mit Einleitungen senken und eine langfristige regulatorische Compliance unterstützen.

Die Herausforderung

Der Markt für industrielle Wasserbehandlung ist sicherheitsgetrieben und extrem konservativ. Kühltürme sind kritische Infrastrukturen – ein mikrobiologisches Ungleichgewicht kann schwere gesundheitliche und rechtliche Folgen haben. Ein Start-up, das hier eine neuartige Lösung anbietet, muss massives Vertrauen aufbauen. Dass diese Hürde überwindbar ist, zeigt ein Blick auf das aktuelle Kundenportfolio: Laut Branchenberichten zählen Schwergewichte wie BASF, Braskem und die Salzgitter AG bereits zu den Nutzern der Technologie.

Fazit & Einordnung

Mit 8,5 Millionen Euro handelt es sich um eine außergewöhnlich große Frühphasen-Runde im deutschen B2B-Hardware/DeepTech-Sektor. Das internationale Investorenkonsortium bringt dabei ein starkes Netzwerk in den europäischen CleanTech-Markt ein.

Blue activity profitiert von einer starken Problem-Lösungs-Passung: Das Team liefert der Industrie nicht nur moralische Umweltargumente, sondern mit der versprochenen OPEX-Reduktion knallharte betriebswirtschaftliche Anreize. Gelingt es den Heidelbergern, diese Ergebnisse dauerhaft in der industriellen Breite zu skalieren, wartet ein gigantischer Markt: Das globale Volumen für die industrielle Wasseraufbereitung lag 2024 bei rund 46 Milliarden USD und wächst stetig weiter. Das Kapital ist nun der entscheidende Hebel, um in diesem hochkomplexen Marktumfeld die Marktführerschaft für biozidfreie Alternativen anzugreifen.

Infokasten: Die Meilenstein-Historie von blue activity

Jahr / Zeitraum

Meilenstein

Redaktionelle Einordnung / Details

2021

Gründung

Lars Havighorst und Michael Simon gründen das CleanTech-Unternehmen in Heidelberg.

Januar / März 2023

Erste Seed-Runde

Der österreichische Umwelttech-Investor Epoona steigt mit ca. 500.000 Euro ein, um den Marktaufbau zu finanzieren.

2023 / 2024

Proof of Concept (BASF)

Erfolgreiches Pilotprojekt am Standort Ludwigshafen. Der Chemiegigant rüstet in der Folge erste Produktionsstätten auf die biozidfreie Technologie um.

Februar 2026

8,5 Mio. € (Late-)Seed-Runde

Abschluss der neuen, großvolumigen Finanzierungsrunde unter Führung von Wind Capital und Venture Stars. Das Unternehmen deklariert dies offiziell als "Seed-Runde".

iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere

Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.

Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.

Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.

Der technologische Schlüssel: "Direct Cytosolic Transfer"

Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.

Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.

Zwischen enormem Potenzial und hohem Risiko

Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.

Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.

Blaupause für Deep-Tech-Gründer

Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:

  • Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
  • Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
  • Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.

4 Mio. Euro für den Sprung aus dem Labor: Level Nine sichert sich Seed-Finanzierung für den Umbau der Chemie

Das 2023 von Dr. Emily Sheridan und Seadna Quigley gegründete Berliner DeepTech-Start-up Level Nine hat eine Seed-Finanzierungsrunde über 4 Millionen Euro abgeschlossen, um die europäische Chemieindustrie unabhängiger von fossilen Rohstoffen zu machen. Mit einer Kombination aus maschinellem Lernen und robusten, enzym-inspirierten Katalysatoren verspricht das Gründerduo eine wirtschaftliche Alternative zu Erdöl – ohne die bisher üblichen Leistungsverluste. Angeführt von Visionaries Tomorrow, setzen namhafte Investoren darauf, dass Level Nine das „Fossil-Dilemma“ der Schwerindustrie lösen kann.

Die europäische Chemieindustrie, die mit einem Jahresvolumen von rund 1 Billion Euro das industrielle Rückgrat des Kontinents bildet, steckt laut Branchenangaben in einer tiefgreifenden Strukturkrise. Wie Level Nine in seiner aktuellen Mitteilung betont, setzen volatile Rohstoffpreise, hohe Energiekosten und massiver Wettbewerb aus China und dem Nahen Osten die Margen so stark unter Druck, dass Standorte zunehmend gedrosselt oder geschlossen werden müssen. Seit Jahrzehnten gilt Biomasse als potenzielle Alternative, doch die industrielle Umsetzung scheiterte bisher an der Effizienz: Herkömmliche Katalysatoren sind für komplexe Biomoleküle nicht selektiv genug, während natürliche Enzyme für die rauen Bedingungen der Schwerindustrie – wie hohen Druck und extreme Hitze – zu empfindlich und teuer sind. Diese technologische Lücke hat die Industrie bisher in einer riskanten Abhängigkeit von fossilen Importen gehalten.

Das Team hinter der Vision

Um diese Lücke zu schließen, setzt Level Nine auf ein Gründungsduo, das wissenschaftliche Tiefe mit operativer Erfahrung vereint. CTO Dr. Emily Sheridan ist Spezialistin für enzym-inspirierte Materialien sowie Reaktionstechnik. Sie widmete ihre Forschung gezielt der Fragestellung, wie die Präzision biologischer Prozesse mit der für die Industrie notwendigen Robustheit verbunden werden kann.

Ihr zur Seite steht CEO Seadna Quigley, der die kommerzielle Seite des Unternehmens verantwortet. Quigley arbeitete zuvor intensiv an der Schnittstelle von Kreislaufwirtschaft, Nachhaltigkeit und Unternehmensaufbau. Seine Skalierungskompetenz stellte er unter anderem als CFO eines Amsterdamer Unternehmens unter Beweis, dessen Wachstum er auf über 140 Mitarbeitende begleitete. Gemeinsam führt das Duo heute ein 14-köpfiges Team am neuen Hauptsitz in Berlin.

Die Berliner Lösung: Präzision trifft industrielle Härte

Die Innovation von Level Nine basiert auf einer neuen Klasse industrieller Katalysatoren, die enzymähnliche Präzision bieten, aber gleichzeitig hohen Temperaturen, Drücken und industriellen Lösungsmitteln standhalten. Das Herzstück bildet eine auf maschinellem Lernen basierende Plattform, welche die Entwicklungszyklen für neue Katalysatoren massiv verkürzt und eine hocheffiziente Umwandlung komplexer biobasierter Rohstoffe ermöglicht. Laut Dr. Iris ten Have vom Lead-Investor Visionaries Tomorrow stellt dies eine fundamentale Technologieschicht dar, die ganze Wertschöpfungsketten erschließen kann.

Der 100-Milliarden-Euro-Target: Polyurethan im Fokus

Mit dem frischen Kapital konzentriert sich das Team zunächst auf den globalen Polyurethan (PU)-Markt, der jährlich über 100 Milliarden Euro schwer ist. Level Nine hat hierfür ein biobasiertes aromatisches Polyol entwickelt, das laut Unternehmensangaben die Leistung fossiler Alternativen erreicht. Ein strategischer Vorteil ist die „Drop-in“-Fähigkeit: Das Produkt kann laut Mitteilung direkt in bestehende Fertigungsinfrastrukturen integriert werden. Zudem weist das Material laut Level Nine inhärente flammhemmende Eigenschaften auf, was den Einsatz giftiger halogenierter Additive überflüssig machen soll.

Das „Tal des Todes“ der Hardware-Skalierung

Trotz des Investoren-Vertrauens durch Visionaries Tomorrow, Zero Carbon Capital, Rockstart, IBB Ventures und better ventures steht Level Nine vor der größten Hürde: dem physischen Scale-up. Das Unternehmen bereitet aktuell den Bau der ersten Kilotonnen-Produktionsanlage vor. In der Chemiebranche gilt dieser Schritt als das berüchtigte „Tal des Todes“, da die Skalierung von Laborreaktionen in industrielle Dimensionen extrem kapitalintensiv ist und technische Risiken birgt, die rein softwarebasierte Startups nicht kennen. Die Wirtschaftlichkeit wird sich erst beweisen, wenn Level Nine zeigt, dass ihre Chemie den Übergang ohne Kompromisse bei Kosten oder Leistung ermöglicht.

Der EU-Green-Deal als Marktmacher

Die strategische Positionierung von Level Nine wird durch aktuelle regulatorische Weichenstellungen in Europa gestützt. Die EU-Bioökonomie-Strategie hat biobasierte Materialien zur strategischen Priorität erklärt, um die Abhängigkeit von fossilen Rohstoffen zu beenden. Zusätzliche Dynamik verspricht der EU Biotech Act, der regulatorische Hürden abbauen und den Weg vom Labor in die Fabrik beschleunigen soll. Da die Lösungen von Level Nine zudem helfen könnten, strengere Grenzwerte für chemische Additive unter der REACH-Verordnung einzuhalten, bietet das Startup eine zeitgerechte Lösung für eine Industrie unter massivem Anpassungsdruck.

Fazit

Level Nine will die 4 Millionen Euro nutzen, um den Beweis anzutreten, dass nachhaltige Chemie nicht nur ökologisch notwendig, sondern ökonomisch souverän sein kann. Sollte die Skalierung in den Kilotonnen-Maßstab gelingen, könnte das Berliner Team eine Schlüsselrolle dabei spielen, die europäische Industrie zukunftsfähig und unabhängig aufzustellen.

Wahrheit als Geschäftsmodell: Neuramancer sichert sich 1,7 Mio. Euro für Deepfake-Detektor

In einer Zeit, in der Deepfakes als handfeste wirtschaftliche Bedrohung gelten, positioniert sich ein deutsches Start-up als digitaler Detektiv. Doch kann ein junges Team aus Oberbayern im globalen Wettrüsten zwischen KI-Fälscher*innen und Detektoren wirklich bestehen?

Angeführt wird die 1,7 Millionen-Euro-Runde von Vanagon Ventures, während sich mit Bayern Kapital über den Innovationsfonds EFRE II auch ein gewichtiger institutioneller Partner beteiligt. Das Konsortium wird durch das Family Office Lightfield Equity, den neu gegründeten ZOHO.VC sowie mehrere strategisch erfahrene Business Angels vervollständigt.

Wenn Forschung auf Versicherung trifft

Hinter Neuramancer steht ein Führungstrio, das akademische Tiefe mit Branchenexpertise vereint. Den technologischen Grundstein legte Anatol Maier, der als technischer Architekt und CTO das wissenschaftliche Rückgrat bildet. Seine an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Bereich IT-Sicherheit entwickelte Methodik bildet heute das proprietäre Herzstück der Plattform.

Flankiert wird er von Anika Gruner, die als CEO die strategischen Fäden in der Hand hält. Durch ihre Stationen beim Bayerischen Rundfunk und bei Burda kennt sie die Mechanismen der Medienwelt und die Gefahren durch Desinformation aus erster Hand.

Um die technologische Lösung nun in marktfähige Bahnen zu lenken, komplettiert Martin Sondenheimer als Chief Commercial Officer das Team. Mit seiner Erfahrung als Venture-Experte bei Branchenriesen wie der Munich Re und der Allianz soll er die entscheidende Brücke zur Versicherungswirtschaft schlagen – dem Sektor, den Neuramancer als seinen ersten Fokusmarkt definiert hat.

Dem digitalen Rauschen auf der Spur

Während viele Wettbewerber auf eine rein visuelle Analyse setzen, geht Neuramancer eine Ebene tiefer. Die Plattform konzentriert sich auf die Analyse von Hintergrundrauschen und statistischen Artefakten in Bild- und Videodateien. Jede generative KI hinterlässt beim Erstellungsprozess einer Datei eine Art mathematischen Fingerabdruck. Neuramancer nutzt eigene, probabilistische Algorithmen, um diese Spuren zu isolieren. Ein wesentlicher Vorteil dieses Ansatzes ist die angestrebte Transparenz: Das System liefert mathematisch nachvollziehbare Beweise statt vager Wahrscheinlichkeiten. Dies ist insbesondere für die Akzeptanz vor Gericht oder in komplexen Versicherungsfällen ein entscheidendes Kriterium.

Zwischen Nischen-Spezialisten und Big Tech

Neuramancer tritt in einen Markt ein, der gerade erst erwachsen wird, aber bereits von verschiedenen Seiten besetzt ist. Die Wettbewerbslandschaft teilt sich dabei in drei Lager auf. Zum einen agieren internationale Schwergewichte wie Reality Defender (USA) oder DuckDuckGoose (Niederlande), die über deutlich höhere Finanzmittel verfügen.

Auf nationaler Ebene trifft Neuramancer auf spezialisierte Konkurrent*innen wie das Start-up VAARHAFT, das sich ebenfalls auf die automatisierte Prüfung von Schadensbildern fokussiert hat. Schließich arbeiten auch Tech-Giganten wie Intel oder Adobe innerhalb der Content Authenticity Initiative an eigenen Standards. Während Adobe verstärkt auf digitale Wasserzeichen setzt, um Originale zu kennzeichnen, muss Neuramancer beweisen, dass die nachträgliche Detektion von Fälschungen der effizientere Weg für Unternehmen ist.

Das Risiko der technischen Kurzlebigkeit

Trotz der exzellenten Forschungsgrundlage steht das Start-up vor Hürden. Eine der größten technischen Herausforderungen ist das Kompressions-Dilemma: Wenn Deepfakes über Dienste wie WhatsApp verschickt werden, geht oft genau das feingliedrige Rauschen verloren, auf das Maiers Algorithmen angewiesen sind. Das Team muss beweisen, dass die Technologie auch unter realen Bedingungen mit stark komprimierten Dateien robust bleibt. Zudem wirkt das Funding von 1,7 Millionen Euro im Vergleich zu den zweistelligen Millionenbeträgen der US-Konkurrenz fast bescheiden, was einen extrem effizienten Mitteleinsatz erfordert. Nicht zuletzt bleibt das Geschäft ein permanentes Wettrüsten: Sobald Detektionsmechanismen bekannt sind, könnten künftige KI-Modelle darauf trainiert werden, genau diese statistischen Spuren von vornherein zu vermeiden.

Fazit und Einordnung

Neuramancer ist ein Paradebeispiel für ein DeepTech-Spin-off, das den Sprung aus der Universität über renommierte Förderprogramme wie das Media Lab Bayern oder die Bundesagentur SPRIND in die kommerzielle Welt geschafft hat. Der Erfolg wird maßgeblich davon abhängen, wie schnell das Start-up die Versicherungswirtschaft als zahlende Kund*innen skalieren kann, bevor die nächste Generation von KI-Generatoren die aktuellen Algorithmen technologisch überholt. Ein riskanter, aber technologisch hochspannender Case für den Standort Deutschland.

Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard

Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.

Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.

Das Team: Konzern-Know-how trifft Deep-Tech

Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.

Das Problem: Fragmentierung als Kostentreiber

Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.

Der USP: Schwarmintelligenz statt zentralem Broker

Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.

  • Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
  • Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
  • Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.

Die Herausforderung: Die Open-Source-Falle im B2B

Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.

Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.

Der Wettbewerb

Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.

  • Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
  • Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
  • Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.

Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.

Fazit: Infrastruktur statt App-Spielerei

Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Open-Source als trojanisches Pferd

Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.

2. Die blinden Flecken der Tech-Giganten besetzen

Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.

3. Regulatorik als Vertriebsturbo nutzen

Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.

Cyber Security Report 2026

Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.

Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.

Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.

Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten

Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.

Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.

Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil

Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.

Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.

Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken

Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.

IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.

Fazit

Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.

Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?

Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:

  1. Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
  2. Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
  3. Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
  4. Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.

Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Foodforecast: 8-Mio.-Euro-Runde gegen Lebensmittelverschwendung

Das Kölner FoodTech-Start-up Foodforecast hat sich acht Millionen Euro frisches Kapital gesichert, um mittels künstlicher Intelligenz die Lebensmittelverschwendung in Bäckereien und der Gastronomie zu reduzieren.

Jeden Tag landen in Europa rund 30.000 Tonnen frische Lebensmittel ungenutzt im Müll, was in der Praxis häufig auf eine unpräzise Bedarfsplanung im Lebensmitteleinzelhandel und in der Gastronomie zurückzuführen ist. Genau an dieser Ineffizienz der Wertschöpfungskette setzt das 2022 gestartete Kölner Foodforecast an. Mit einer KI-gestützten Software zur Absatz- und Produktionsprognose hat das Start-up nun eine Series-A-Finanzierungsrunde in Höhe von acht Millionen Euro abgeschlossen. Angeführt wird die Runde von den niederländischen Investoren SHIFT Invest sowie dem auf Bioökonomie spezialisierten europäischen VC ECBF. Auch bestehende Geldgeber wie der Future Food Fund und Aeronaut Invest beteiligten sich erneut an der Kapitalerhöhung. Zudem wird die Finanzierung durch Mittel des EU-Programms InvestEU unterstützt.

Von der regionalen Machbarkeitsstudie zur internationalen Skalierung

Hinter der Technologie steht ein klassischer Gründungsansatz aus der Praxis. Der Informatiker Justus Lauten rief das Projekt Ende 2018 zunächst unter dem Namen „Werksta.tt“ ins Leben, nachdem regionale Bäckereien auf ihn zugekommen waren, um eine softwaregestützte Lösung für ihre hohen Retourenmengen zu finden. Später holte Lauten den Wirtschaftsingenieur Jan Brormann als Co-Founder und COO in das Führungsteam, den er im Umfeld eines Corporate-Start-ups kennengelernt hatte. Einem breiteren Publikum wurde die Marke zudem durch einen Pitch in der TV-Sendung „Die Höhle der Löwen“ bekannt. Gründer und CEO Justus Lauten ordnet den aktuellen Kapitalfluss nüchtern ein: „Diese Series A stellt einen wichtigen Meilenstein für Foodforecast dar.“ Das Ziel des Unternehmens sei es, die Planung und Produktion von ultra-frischen Lebensmitteln grundlegend neu zu denken. Mit den neuen Investoren an Bord sei man nun bereit, die eigene Technologie international zu skalieren und einen neuen Benchmark für Planung, Effizienz und Nachhaltigkeit zu etablieren.

Renditehebel Nachhaltigkeit und die Grenzen der Prognosemodelle

Das Geschäftsmodell von Foodforecast fokussiert sich auf eine hochkomplexe Nische der Lieferkette: Die sogenannten ultra-frischen Produkte. Deren Haltbarkeit reicht von wenigen Stunden bis zu maximal einem Tag, was sie bei herkömmlicher Planung extrem schwer kalkulierbar macht. Die operativen Kennzahlen, die das Start-up bei Bestandskund*innen wie SSP Germany oder Eat Happy ausweist, zeigen das Potenzial der Technologie. Laut Unternehmensangaben ist die Software in der Lage, über 90 Prozent der vormals manuellen Bestell- und Produktionsprozesse zu automatisieren.

Gleichzeitig soll die Lebensmittelverschwendung um durchschnittlich bis zu 30 Prozent reduziert werden. Da die KI-gestützte Planung zudem „Out-of-Stock“-Situationen in den Regalen minimiert, steigen die potenziellen Umsätze laut Foodforecast um bis zu 11 Prozent. Bislang konnten durch diesen datengetriebenen Ansatz nach Angaben des Unternehmens bereits über 8.800 Tonnen an Lebensmittelabfällen eingespart werden.

Dass selbst ausgereifte Machine-Learning-Modelle im operativen Alltag an Grenzen stoßen, zeigt sich an lokalen Anomalien: Während die KI externe Faktoren wie Wetterdaten oder Schulferien mit hoher Präzision verarbeitet, sinkt die Prognosegenauigkeit beispielsweise während des Kölner Karnevals signifikant ab, da die Nachfrage nach bestimmten Backwaren in diesem Zeitraum extremen und sprunghaften Schwankungen unterliegt. Dennoch demonstriert der Business Case von Foodforecast, dass Nachhaltigkeitsziele im B2B-Umfeld zunehmend nicht mehr als isolierte CSR-Maßnahmen, sondern als integraler Bestandteil zur operativen Margenverbesserung positioniert werden.

Marktumfeld: Spezialisierung als Abgrenzungsmerkmal

Auch wenn die Series A eine solide Grundlage für die angestrebte Marktdurchdringung in Europa bildet, agiert Foodforecast in einem wettbewerbsintensiven Marktumfeld. Der Sektor für softwaregestützte Bedarfsplanung wächst und zieht verschiedene Akteure an. Einerseits haben sich spezialisierte Mitbewerber wie Foodtracks (gegründet 2017) bereits fest im deutschen Bäckerei-Segment positioniert und bedienen ein signifikantes Filialnetzwerk.

Andererseits integrieren große Retail-Software-Konzerne wie SAP oder Oracle sowie etablierte Anbieter von Kassensystemen zunehmend eigene Machine-Learning-Module für das Inventory Management in ihre Standardlösungen. Foodforecast versucht, sich in dieser Gemengelage durch die technologische Spezialisierung auf sogenannte Intraday-Prognosen – also untertägige Produktionsanpassungen – und den alleinigen Fokus auf das Segment der Ultra-Frische von generischen Supply-Chain-Plattformen abzugrenzen.

Herausforderungen in der Skalierung: Legacy-Systeme und Change Management

Trotz der nachweisbaren Traktion und einer Implementierung in mehreren tausend europäischen Filialen steht das Unternehmen vor den klassischen Wachstumsbarrieren des B2B-SaaS-Sektors. Eine zentrale Herausforderung bleibt die Datenverfügbarkeit und -qualität: Da die KI elementar auf historischen Abverkaufsdaten basiert, erweist sich die oft veraltete IT- und Kassensystem-Infrastruktur im filiallisierten Mittelstand (wie bei traditionellen Bäckereiketten) regelmäßig als technischer Flaschenhals bei der Software-Integration. Darüber hinaus erfordert die Implementierung eines zu großen Teilen automatisierten Bestellwesens ein konsequentes Change Management. Filialleiter*innen und Produktionsplaner*innens müssen Vertrauen in die algorithmischen Empfehlungen aufbauen, um die Software dauerhaft im Betriebsalltag zu verankern. Nicht zuletzt diktiert der Preisdruck in der margenschwachen Lebensmittel- und Gastronomiebranche die Vertriebsgeschwindigkeit: Software-as-a-Service-Lösungen in diesem Segment können sich nur behaupten, wenn der betriebswirtschaftliche Return on Investment durch reduzierte Retouren und Umsatzsteigerungen die laufenden Lizenzkosten zeitnah und messbar übersteigt.

10 Mio. Euro Series-A: VoiceLine transformiert den Außendienst mit Sprach-KI

Das 2020 von Dr. Nicolas Höflinger und Sebastian Pinkas gegründete Münchner Start-up VoiceLine hat eine Finanzierungsrunde über 10 Mio. Euro abgeschlossen, um seine Voice-AI-Plattform für Frontline-Teams international zu skalieren.

Angeführt von Alstin Capital und Peak, unterstützt durch Scalehouse Capital, Venture Stars und NAP, setzt das Unternehmen auf ein massives Umsatzwachstum von 1.000 % gegenüber dem Vorjahr.

Fokus auf den „Motor“ der B2B-Wirtschaft

Die Gründer Dr. Nicolas Höflinger und Sebastian Pinkas haben VoiceLine als Lösung für ein zentrales Problem im Arbeitsalltag von Außendienst-Teams positioniert. Während diese Teams oft den Großteil des Tages beim Kunden oder auf Reisen verbringen, bleibt die CRM-Pflege und Dokumentation häufig auf der Strecke oder wird auf den späten Abend verschoben. Dies führt zu unvollständigen Berichten und dem Verlust wertvoller Marktinformationen. VoiceLine löst dies mit einem KI-Assistenten, der Sprachnotizen direkt in strukturierte CRM-Einträge, Besuchsberichte und Folgeaufgaben überführt.

Messbare Ergebnisse bei Industrie-Größen

Dass der technologische Ansatz funktioniert, belegen die Zahlen bei namhaften Kunden wie DACHSER, ABB, Knauf und KSB. Laut Unternehmensangaben sparen Vertriebsmitarbeiter durch die Lösung rund fünf Stunden pro Woche an administrativem Aufwand ein. Die Datenqualität aus dem Feld steigt um bis zu 400 %, während die Implementierung durch eine proprietäre Engine oft innerhalb weniger Tage abgeschlossen ist. Andreas Schenk, Partner bei Alstin Capital, betont, dass VoiceLine Sprach-KI damit zum echten „Produktivitäts-Hebel“ für mobile Teams macht.

Strategische Expansion und massives Team-Wachstum

Mit dem frischen Kapital plant VoiceLine, die Mitarbeiterzahl am Hauptsitz in München noch in diesem Jahr mehr als zu verdoppeln. Neben der internationalen Expansion soll der Fokus verstärkt auf Branchen wie Pharma, Medtech sowie Versicherungen und Finanzdienstleistungen ausgeweitet werden. CEO Nicolas Höflinger sieht in der Series-A den entscheidenden Meilenstein, um VoiceLine europaweit als Standard-Schnittstelle für Frontline-Organisationen zu etablieren.

Series A: 6,5 Mio. Euro für den „KI-Mitarbeiter“ von happyhotel

Das 2019 gegründete TravelTech happyhotel wandelt sich vom reinen Software-Anbieter zum Entwickler von KI-Agenten. Doch der Schritt zum autonomen „Hotel-Autopiloten“ birgt auch technische und psychologische Hürden.

Wer heute ein mittelständisches Hotel führt, hat oft zwei Probleme: Die Kosten steigen, und für komplexe Aufgaben wie die dynamische Preisgestaltung (Revenue Management) fehlt schlicht das Personal. Genau hier setzt die 2019 gegründete happyhotel GmbH an, die nun den Abschluss ihrer Series-A-Finanzierungsrunde über 6,5 Millionen Euro bekanntgegeben hat.

Angeführt wird die Runde vom VC Reimann Investors, unterstützt von den Bestandsinvestoren wie dem Start-up BW Innovation Fonds (MBG), seed + speed Ventures und dem Family Office Wecken & Cie.

Der USP: Autopilot statt Cockpit

Der Markt für Revenue-Management-Software ist voll: Platzhirsche wie IDeaS oder Duetto bedienen die großen Ketten, Herausforderer wie RoomPriceGenie buhlen um die Kleinen. Doch happyhotel will sich mit einem radikalen Versprechen abheben: Weg vom „Tool“, das bedient werden muss, hin zum autonomen KI-Agenten.

„Wir bauen unser System nicht für den Revenue Manager – wir automatisieren die Aufgaben eines Revenue Managers“, erklärt CEO Rafael Weißmüller. Für unabhängige Hotels, die sich keine teuren Spezialisten leisten können, wird die Software so quasi zum digitalen Mitarbeiter, der Preise in Echtzeit anpasst – ein Ansatz, der in Zeiten des Personalmangels bei Investor*innen extrem gut verfängt.

Gründer-Team mit „Stallgeruch“ und Exit-Erfahrung

Dass die Runde in einem schwierigen Marktumfeld zustande kam, dürfte auch am Setup des Gründerteams liegen, das die klassische Branchen-Expertise mit Skalierungswissen vereint:

  • Sebastian Kuhnhardt kommt selbst aus einer Hoteliersfamilie und entwickelte die Ur-Idee aus dem Frust über die Zettelwirtschaft im elterlichen Betrieb.
  • Rafael Weißmüller bringt die SaaS-Erfahrung mit: Er war früherer Mitarbeiter bei sevDesk, dem Offenburger Vorzeige-Start-up, das zeigte, wie man Büro-Software für KMUs massentauglich macht.
  • Marius Müller liefert als Wirtschaftsinformatiker das technische Fundament.

Expansion und Realitätscheck

Aktuell steuert das System bereits über 50.000 Hotelzimmer in 12 Ländern und optimiert nach eigenen Angaben ein Umsatzvolumen von über einer Milliarde Euro. Mit dem frischen Kapital soll nun die Expansion in Europa forciert werden.

Dennoch bleiben Herausforderungen: Der Markt der Hotel-Technologie ist berüchtigt für seine fragmentierte Landschaft aus veralteten Verwaltungssystemen (PMS). Der Erfolg des KI-Agenten wird maßgeblich davon abhängen, wie reibungslos happyhotel die Schnittstellen zu diesen Altsystemen managt. Zudem müssen die Gründer eine psychologische Hürde nehmen: Hoteliers dazu zu bringen, die Kontrolle über ihre wichtigste Stellschraube – den Preis – vollends an eine „Black Box“ abzugeben, erfordert großes Vertrauen.

Dass dieses Vertrauen noch wachsen muss, zeigt auch das aktuelle Modell: Noch agiert die KI nicht völlig allein. Ein internes Team aus menschlichen Revenue-Expert*innen unterstützt das System weiterhin bei strategischen Fragen – der Weg vom Copiloten zum echten Autopiloten ist also auch bei happyhotel ein schrittweiser Prozess.