Gründer*in der Woche: THE LITTLE PALM – Geschenkboxen für Babys und Kids

Gründer*in der Woche KW 37/22


44 likes

Mit THE LITTLE PALM bietet Nina Lux individuelle, mit Liebe zum Detail zusammengestellte Babygeschenkboxen an. Mit ihren Produkten richtet sie sich an designorientierte Familien und Freund*innen von werdenden Eltern. Mehr dazu im Interview mit Nina.

Wann und wie bist du auf die Idee zu THE LITTLE PALM gekommen?

Anfang letzten Jahres bin ich selbst Mutter geworden und sah mich selbst mit der Frage konfrontiert, was wir uns zur Geburt wünschen. Ich wusste nicht so recht, was man benötigen würde und daher war es nicht leicht eine Antwort zu finden. Nach den ersten zwei Monaten mit Baby hatte ich eine sehr genaue Vorstellung von dem, was ein sinnvolles Geschenk zur Geburt ausmacht und begab mich auf die Suche nach einem Geschenk für eine schwangere Freundin. So richtig wurde ich nicht fündig, sollte das Geschenk doch nicht nur praktisch, sondern auch qualitativ hochwertig, nachhaltig und geschmackvoll verpackt sein - etwas Besonderes eben. Das war der Moment, an dem ich mir überlegte, selbst tätig zu werden.

Was waren dann die wichtigsten Schritte von der Gründung bis zum Launch der ersten Babygeschenkbox?

Neben der Entwicklung und Produktion der eigenen Produkte, war für mich besonders wichtig eine Geschenkbox zu designen, die zeitlos, modern, geschmackvoll und trotzdem persönlich ist. Als ehemalige Visual Merchandiserin weiß ich, wie wichtig der erste Eindruck ist, auch bei Geschenkverpackungen, und was kleine Details ausmachen. Ich wollte ein wirklich besonderes Auspackerlebnis schaffen.

Zudem hatte ich keinen Investor und nicht sehr viel Budget. Jeder Cent musste also genau verplant werden. Da für mich ein ansprechender Internetauftritt und gute Fotos so bedeutend sind, wie das Produkt selbst, war es wichtig alles finanziell im Rahmen zu halten.

Nicht zu vergessen ist, dass jeder Schritt der Entwicklung meines eigenen Kindes mir zusätzliche, wichtige Erkenntnisse und Impulse gebracht hat, um meine Produkte und die Boxinhalte zu optimieren.

Wie hast du die Start- und Entwicklungsphase finanziell gestemmt?

Ich konnte auf ein paar Rücklagen zurückgreifen, habe aber den Großteil durch Fremdkapital finanziert.

Was bietest du mit deinen Geschenkboxen, wie unterscheidest du dich damit vom Wettbewerb und wer sind deine Kund*innen?

Viele meiner Kund*innen haben zeitlich nicht die Möglichkeit lange durch die Stadt zu gehen oder im Internet nach einem geeigneten Geschenk zu suchen, auf eine Lieferung zu warten und das Ganze dann noch zu verpacken.

Ich möchte meinen Kund*innen das Schenken so einfach wie möglich machen und biete eine große Auswahl an fertig zusammengestellten Geschenksets in dezenten Farben, für jeden Geschmack und jedes Budget, in einer modernen Geschenkbox. Wer möchte, kann sich mit dem „Box-Builder“ auch eine Box nach seinen eigenen Vorstellungen zusammenstellen.

Wir verpacken die Boxen nicht nur mit viel Liebe, sondern legen auch eine handgeschriebene Karte mit einer persönlichen Nachricht der schenkenden Person bei und kümmern uns um den Versand. Wir bieten also einen Rundum-sorglos-Service.

Zudem tut man mit dem Kauf einer jeden Box auch etwas Gutes. Wir unterstützen das Projekt „ShareTheMeal“ des United Nations World Food Programmes. Mit jeder verkauften Box kann ein Kind auf der Welt einen Tag lang ernährt werden.

Wie machst du auf dich und deine Produkte aufmerksam?

Anfangs habe ich hauptsächlich Instagram genutzt, um auf mich aufmerksam zu machen. Auch heute ist das noch mein Hauptmarketingtool. Zudem starte ich jetzt mit geschalteter Werbung auf Social-Media-Kanälen und verteile Flyer an zielgruppenrelevanten Orten. Was mich besonders freut, ist, dass bei mir auch sehr viel über Empfehlungsmarketing läuft.

Und last but not least: Was rätst du anderen Gründer*innen aus eigener Erfahrung?

Wenn man eine Idee hat, von der man fest überzeugt ist, sollte man den Schritt in die Selbstständigkeit unbedingt wagen. Gerade „frisch gebackene“ Mütter scheuen häufig davor zurück, weil man ja einem kleinen Menschen, der gerade auf die Welt gekommen ist, auch gerecht werden möchte. Es ist wirklich nicht einfach alles unter einen Hut zu bringen, aber mit viel Disziplin und Durchhaltevermögen lässt es sich machen. Zweifel und Rückschläge gehören dazu, man darf sich nur nicht entmutigen lassen.

Hier geht's zu THE LITTLE PALM

Das Interview führte Hans Luthardt

Diese Artikel könnten Sie auch interessieren:

50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert

Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.

Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.

Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.

Vom Side-Project zur modularen Architektur

Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.

Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.

Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.

Das Open-Core-Modell auf dem Prüfstand

Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.

Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.

Im Haifischbecken der Tech-Giganten

In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.

Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.

Lektionen für die Start-up-Szene

Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.

Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.

Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.

Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard

Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.

Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.

Das Team: Konzern-Know-how trifft Deep-Tech

Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.

Das Problem: Fragmentierung als Kostentreiber

Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.

Der USP: Schwarmintelligenz statt zentralem Broker

Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.

  • Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
  • Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
  • Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.

Die Herausforderung: Die Open-Source-Falle im B2B

Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.

Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.

Der Wettbewerb

Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.

  • Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
  • Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
  • Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.

Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.

Fazit: Infrastruktur statt App-Spielerei

Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Open-Source als trojanisches Pferd

Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.

2. Die blinden Flecken der Tech-Giganten besetzen

Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.

3. Regulatorik als Vertriebsturbo nutzen

Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.

Cyber Security Report 2026

Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.

Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.

Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.

Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten

Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.

Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.

Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil

Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.

Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.

Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken

Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.

IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.

Fazit

Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.

Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?

Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:

  1. Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
  2. Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
  3. Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
  4. Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.

Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Foodforecast: 8-Mio.-Euro-Runde gegen Lebensmittelverschwendung

Das Kölner FoodTech-Start-up Foodforecast hat sich acht Millionen Euro frisches Kapital gesichert, um mittels künstlicher Intelligenz die Lebensmittelverschwendung in Bäckereien und der Gastronomie zu reduzieren.

Jeden Tag landen in Europa rund 30.000 Tonnen frische Lebensmittel ungenutzt im Müll, was in der Praxis häufig auf eine unpräzise Bedarfsplanung im Lebensmitteleinzelhandel und in der Gastronomie zurückzuführen ist. Genau an dieser Ineffizienz der Wertschöpfungskette setzt das 2022 gestartete Kölner Foodforecast an. Mit einer KI-gestützten Software zur Absatz- und Produktionsprognose hat das Start-up nun eine Series-A-Finanzierungsrunde in Höhe von acht Millionen Euro abgeschlossen. Angeführt wird die Runde von den niederländischen Investoren SHIFT Invest sowie dem auf Bioökonomie spezialisierten europäischen VC ECBF. Auch bestehende Geldgeber wie der Future Food Fund und Aeronaut Invest beteiligten sich erneut an der Kapitalerhöhung. Zudem wird die Finanzierung durch Mittel des EU-Programms InvestEU unterstützt.

Von der regionalen Machbarkeitsstudie zur internationalen Skalierung

Hinter der Technologie steht ein klassischer Gründungsansatz aus der Praxis. Der Informatiker Justus Lauten rief das Projekt Ende 2018 zunächst unter dem Namen „Werksta.tt“ ins Leben, nachdem regionale Bäckereien auf ihn zugekommen waren, um eine softwaregestützte Lösung für ihre hohen Retourenmengen zu finden. Später holte Lauten den Wirtschaftsingenieur Jan Brormann als Co-Founder und COO in das Führungsteam, den er im Umfeld eines Corporate-Start-ups kennengelernt hatte. Einem breiteren Publikum wurde die Marke zudem durch einen Pitch in der TV-Sendung „Die Höhle der Löwen“ bekannt. Gründer und CEO Justus Lauten ordnet den aktuellen Kapitalfluss nüchtern ein: „Diese Series A stellt einen wichtigen Meilenstein für Foodforecast dar.“ Das Ziel des Unternehmens sei es, die Planung und Produktion von ultra-frischen Lebensmitteln grundlegend neu zu denken. Mit den neuen Investoren an Bord sei man nun bereit, die eigene Technologie international zu skalieren und einen neuen Benchmark für Planung, Effizienz und Nachhaltigkeit zu etablieren.

Renditehebel Nachhaltigkeit und die Grenzen der Prognosemodelle

Das Geschäftsmodell von Foodforecast fokussiert sich auf eine hochkomplexe Nische der Lieferkette: Die sogenannten ultra-frischen Produkte. Deren Haltbarkeit reicht von wenigen Stunden bis zu maximal einem Tag, was sie bei herkömmlicher Planung extrem schwer kalkulierbar macht. Die operativen Kennzahlen, die das Start-up bei Bestandskund*innen wie SSP Germany oder Eat Happy ausweist, zeigen das Potenzial der Technologie. Laut Unternehmensangaben ist die Software in der Lage, über 90 Prozent der vormals manuellen Bestell- und Produktionsprozesse zu automatisieren.

Gleichzeitig soll die Lebensmittelverschwendung um durchschnittlich bis zu 30 Prozent reduziert werden. Da die KI-gestützte Planung zudem „Out-of-Stock“-Situationen in den Regalen minimiert, steigen die potenziellen Umsätze laut Foodforecast um bis zu 11 Prozent. Bislang konnten durch diesen datengetriebenen Ansatz nach Angaben des Unternehmens bereits über 8.800 Tonnen an Lebensmittelabfällen eingespart werden.

Dass selbst ausgereifte Machine-Learning-Modelle im operativen Alltag an Grenzen stoßen, zeigt sich an lokalen Anomalien: Während die KI externe Faktoren wie Wetterdaten oder Schulferien mit hoher Präzision verarbeitet, sinkt die Prognosegenauigkeit beispielsweise während des Kölner Karnevals signifikant ab, da die Nachfrage nach bestimmten Backwaren in diesem Zeitraum extremen und sprunghaften Schwankungen unterliegt. Dennoch demonstriert der Business Case von Foodforecast, dass Nachhaltigkeitsziele im B2B-Umfeld zunehmend nicht mehr als isolierte CSR-Maßnahmen, sondern als integraler Bestandteil zur operativen Margenverbesserung positioniert werden.

Marktumfeld: Spezialisierung als Abgrenzungsmerkmal

Auch wenn die Series A eine solide Grundlage für die angestrebte Marktdurchdringung in Europa bildet, agiert Foodforecast in einem wettbewerbsintensiven Marktumfeld. Der Sektor für softwaregestützte Bedarfsplanung wächst und zieht verschiedene Akteure an. Einerseits haben sich spezialisierte Mitbewerber wie Foodtracks (gegründet 2017) bereits fest im deutschen Bäckerei-Segment positioniert und bedienen ein signifikantes Filialnetzwerk.

Andererseits integrieren große Retail-Software-Konzerne wie SAP oder Oracle sowie etablierte Anbieter von Kassensystemen zunehmend eigene Machine-Learning-Module für das Inventory Management in ihre Standardlösungen. Foodforecast versucht, sich in dieser Gemengelage durch die technologische Spezialisierung auf sogenannte Intraday-Prognosen – also untertägige Produktionsanpassungen – und den alleinigen Fokus auf das Segment der Ultra-Frische von generischen Supply-Chain-Plattformen abzugrenzen.

Herausforderungen in der Skalierung: Legacy-Systeme und Change Management

Trotz der nachweisbaren Traktion und einer Implementierung in mehreren tausend europäischen Filialen steht das Unternehmen vor den klassischen Wachstumsbarrieren des B2B-SaaS-Sektors. Eine zentrale Herausforderung bleibt die Datenverfügbarkeit und -qualität: Da die KI elementar auf historischen Abverkaufsdaten basiert, erweist sich die oft veraltete IT- und Kassensystem-Infrastruktur im filiallisierten Mittelstand (wie bei traditionellen Bäckereiketten) regelmäßig als technischer Flaschenhals bei der Software-Integration. Darüber hinaus erfordert die Implementierung eines zu großen Teilen automatisierten Bestellwesens ein konsequentes Change Management. Filialleiter*innen und Produktionsplaner*innens müssen Vertrauen in die algorithmischen Empfehlungen aufbauen, um die Software dauerhaft im Betriebsalltag zu verankern. Nicht zuletzt diktiert der Preisdruck in der margenschwachen Lebensmittel- und Gastronomiebranche die Vertriebsgeschwindigkeit: Software-as-a-Service-Lösungen in diesem Segment können sich nur behaupten, wenn der betriebswirtschaftliche Return on Investment durch reduzierte Retouren und Umsatzsteigerungen die laufenden Lizenzkosten zeitnah und messbar übersteigt.

10 Mio. Euro Series-A: VoiceLine transformiert den Außendienst mit Sprach-KI

Das 2020 von Dr. Nicolas Höflinger und Sebastian Pinkas gegründete Münchner Start-up VoiceLine hat eine Finanzierungsrunde über 10 Mio. Euro abgeschlossen, um seine Voice-AI-Plattform für Frontline-Teams international zu skalieren.

Angeführt von Alstin Capital und Peak, unterstützt durch Scalehouse Capital, Venture Stars und NAP, setzt das Unternehmen auf ein massives Umsatzwachstum von 1.000 % gegenüber dem Vorjahr.

Fokus auf den „Motor“ der B2B-Wirtschaft

Die Gründer Dr. Nicolas Höflinger und Sebastian Pinkas haben VoiceLine als Lösung für ein zentrales Problem im Arbeitsalltag von Außendienst-Teams positioniert. Während diese Teams oft den Großteil des Tages beim Kunden oder auf Reisen verbringen, bleibt die CRM-Pflege und Dokumentation häufig auf der Strecke oder wird auf den späten Abend verschoben. Dies führt zu unvollständigen Berichten und dem Verlust wertvoller Marktinformationen. VoiceLine löst dies mit einem KI-Assistenten, der Sprachnotizen direkt in strukturierte CRM-Einträge, Besuchsberichte und Folgeaufgaben überführt.

Messbare Ergebnisse bei Industrie-Größen

Dass der technologische Ansatz funktioniert, belegen die Zahlen bei namhaften Kunden wie DACHSER, ABB, Knauf und KSB. Laut Unternehmensangaben sparen Vertriebsmitarbeiter durch die Lösung rund fünf Stunden pro Woche an administrativem Aufwand ein. Die Datenqualität aus dem Feld steigt um bis zu 400 %, während die Implementierung durch eine proprietäre Engine oft innerhalb weniger Tage abgeschlossen ist. Andreas Schenk, Partner bei Alstin Capital, betont, dass VoiceLine Sprach-KI damit zum echten „Produktivitäts-Hebel“ für mobile Teams macht.

Strategische Expansion und massives Team-Wachstum

Mit dem frischen Kapital plant VoiceLine, die Mitarbeiterzahl am Hauptsitz in München noch in diesem Jahr mehr als zu verdoppeln. Neben der internationalen Expansion soll der Fokus verstärkt auf Branchen wie Pharma, Medtech sowie Versicherungen und Finanzdienstleistungen ausgeweitet werden. CEO Nicolas Höflinger sieht in der Series-A den entscheidenden Meilenstein, um VoiceLine europaweit als Standard-Schnittstelle für Frontline-Organisationen zu etablieren.

Series A: 6,5 Mio. Euro für den „KI-Mitarbeiter“ von happyhotel

Das 2019 gegründete TravelTech happyhotel wandelt sich vom reinen Software-Anbieter zum Entwickler von KI-Agenten. Doch der Schritt zum autonomen „Hotel-Autopiloten“ birgt auch technische und psychologische Hürden.

Wer heute ein mittelständisches Hotel führt, hat oft zwei Probleme: Die Kosten steigen, und für komplexe Aufgaben wie die dynamische Preisgestaltung (Revenue Management) fehlt schlicht das Personal. Genau hier setzt die 2019 gegründete happyhotel GmbH an, die nun den Abschluss ihrer Series-A-Finanzierungsrunde über 6,5 Millionen Euro bekanntgegeben hat.

Angeführt wird die Runde vom VC Reimann Investors, unterstützt von den Bestandsinvestoren wie dem Start-up BW Innovation Fonds (MBG), seed + speed Ventures und dem Family Office Wecken & Cie.

Der USP: Autopilot statt Cockpit

Der Markt für Revenue-Management-Software ist voll: Platzhirsche wie IDeaS oder Duetto bedienen die großen Ketten, Herausforderer wie RoomPriceGenie buhlen um die Kleinen. Doch happyhotel will sich mit einem radikalen Versprechen abheben: Weg vom „Tool“, das bedient werden muss, hin zum autonomen KI-Agenten.

„Wir bauen unser System nicht für den Revenue Manager – wir automatisieren die Aufgaben eines Revenue Managers“, erklärt CEO Rafael Weißmüller. Für unabhängige Hotels, die sich keine teuren Spezialisten leisten können, wird die Software so quasi zum digitalen Mitarbeiter, der Preise in Echtzeit anpasst – ein Ansatz, der in Zeiten des Personalmangels bei Investor*innen extrem gut verfängt.

Gründer-Team mit „Stallgeruch“ und Exit-Erfahrung

Dass die Runde in einem schwierigen Marktumfeld zustande kam, dürfte auch am Setup des Gründerteams liegen, das die klassische Branchen-Expertise mit Skalierungswissen vereint:

  • Sebastian Kuhnhardt kommt selbst aus einer Hoteliersfamilie und entwickelte die Ur-Idee aus dem Frust über die Zettelwirtschaft im elterlichen Betrieb.
  • Rafael Weißmüller bringt die SaaS-Erfahrung mit: Er war früherer Mitarbeiter bei sevDesk, dem Offenburger Vorzeige-Start-up, das zeigte, wie man Büro-Software für KMUs massentauglich macht.
  • Marius Müller liefert als Wirtschaftsinformatiker das technische Fundament.

Expansion und Realitätscheck

Aktuell steuert das System bereits über 50.000 Hotelzimmer in 12 Ländern und optimiert nach eigenen Angaben ein Umsatzvolumen von über einer Milliarde Euro. Mit dem frischen Kapital soll nun die Expansion in Europa forciert werden.

Dennoch bleiben Herausforderungen: Der Markt der Hotel-Technologie ist berüchtigt für seine fragmentierte Landschaft aus veralteten Verwaltungssystemen (PMS). Der Erfolg des KI-Agenten wird maßgeblich davon abhängen, wie reibungslos happyhotel die Schnittstellen zu diesen Altsystemen managt. Zudem müssen die Gründer eine psychologische Hürde nehmen: Hoteliers dazu zu bringen, die Kontrolle über ihre wichtigste Stellschraube – den Preis – vollends an eine „Black Box“ abzugeben, erfordert großes Vertrauen.

Dass dieses Vertrauen noch wachsen muss, zeigt auch das aktuelle Modell: Noch agiert die KI nicht völlig allein. Ein internes Team aus menschlichen Revenue-Expert*innen unterstützt das System weiterhin bei strategischen Fragen – der Weg vom Copiloten zum echten Autopiloten ist also auch bei happyhotel ein schrittweiser Prozess.

Milliarden-Coup für Dresdner BioTech: Seamless Therapeutics gewinnt Pharma-Riese Eli Lilly als Partner

Das 2022 gegründete TU-Dresden-Spin-off Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen. Jetzt hat das BioTech eine Forschungskooperation mit dem US-Pharmakonzern Eli Lilly vereinbart. Das Gesamtvolumen des Deals beläuft sich auf bis zu 1,12 Milliarden US-Dollar – wir erklären, was hinter der Summe und der Technologie steckt.

Dass universitäre Spitzenforschung der Treibstoff für wirtschaftlichen Erfolg sein kann, beweist aktuell eine Meldung aus Dresden. Die Seamless Therapeutics GmbH, eine erst 2022 gegründete Ausgründung der Technischen Universität Dresden (TUD), spielt ab sofort in der Champions League der Biotechnologie mit. Mit Eli Lilly konnte eines der weltweit forschungsstärksten Pharmaunternehmen – bekannt u.a. für Durchbrüche in der Diabetes- und Adipositas-Behandlung – als strategischer Partner gewonnen werden.

Der Deal: Mehr als nur eine Schlagzeile

Die Dimensionen der Vereinbarung lassen aufhorchen: Der Kooperationsvertrag beziffert sich auf einen Wert von bis zu 1,12 Milliarden US-Dollar. Doch wie ist eine solche Summe für ein junges Start-up einzuordnen?

In der BioTech-Branche sind solche Verträge oft als sogenannte Bio-Bucks strukturiert. Das bedeutet: Die Milliarde liegt nicht sofort als Koffer voller Geld auf dem Tisch. Der Deal setzt sich in der Regel aus einer substanziellen Sofortzahlung (Upfront Payment) zum Start der Forschung und weiteren, weitaus größeren Teilzahlungen zusammen. Diese fließen erfolgsabhängig, sobald das Startup definierte Meilensteine erreicht – etwa den erfolgreichen Abschluss klinischer Studienphasen oder die Marktzulassung.

Die Technik: Warum Lilly so früh einsteigt

Dass ein Gigant wie Eli Lilly so früh in ein Start-up investiert, liegt an der disruptiven Technologie der Dresdner. Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen.

Während bekannte Verfahren wie die „Genschere“ CRISPR-Cas oft darauf basieren, die DNA-Stränge komplett zu durchtrennen (Doppelstrangbruch) – was zu ungewollten Fehlern bei der zelleigenen Reparatur führen kann –, gehen die Dresdner einen anderen Weg. Sie nutzen sogenannte Designer-Rekombinasen.

Vereinfacht gesagt arbeitet ihre Technologie nicht wie eine grobe Schere, sondern wie ein präzises „Suchen & Ersetzen“-Werkzeug. Sie können genetische „Schreibfehler“ direkt im Erbgut korrigieren, ohne die riskanten Brüche in der Doppelhelix zu erzeugen. Dieser Ansatz ist namensgebend („Seamless“ = nahtlos) und gilt als deutlich sicherer für die Anwendung am Menschen. Ein erstes konkretes Ziel der Kooperation ist die Bekämpfung von genetisch bedingtem Hörverlust.

Die Köpfe: Ein Team auf Expansionskurs

Hinter diesem technologischen Durchbruch steht kein anonymes Labor, sondern ein jahrelang eingespieltes Gründerteam aus der TUD. Den wissenschaftlichen Nukleus bildete die Forschungsgruppe von Prof. Frank Buchholz (Professor für Medizinische Systembiologie). Zusammen mit ihm trieben vor allem Dr. Felix Lansing, der heute als Chief Scientific Officer (CSO) die technologische Vision verantwortet, und Dr. Anne-Kristin Heninger (Head of Operations) die Entwicklung zur Marktreife voran. Komplettiert wurde das Gründungsteam durch Dr. Teresa Rojo Romanos und Dr. Maciej Paszkowski-Rogacz.

Dass Seamless Therapeutics den globalen Durchbruch ernst meint, zeigt auch eine strategische Personalie aus dem April 2024: Um die Brücke in den entscheidenden US-Markt zu schlagen, holte man den Branchenveteranen Dr. Albert Seymour als neuen CEO an Bord. Während Seymour die internationale Skalierung vorantreibt, sichern die Gründer weiterhin die technologische DNA des Unternehmens. „Die Zusammenarbeit mit Eli Lilly ist eine Bestätigung für unsere Gen-Editierungsplattform und ihr krankheitsmodifizierendes Potenzial“, erklärt Prof. Buchholz.

Der Standort: Wie aus Forschung Business wird

Der Erfolg fällt nicht vom Himmel, sondern ist das Ergebnis eines funktionierenden Transfer-Ökosystems. Das Startup wurde seit den frühen Phasen intensiv unterstützt durch TUD|excite, das Excellence Center for Innovation der TU Dresden, sowie durch SaxoCell, das sächsische Zukunftscluster für Präzisionstherapie. Prof. Ursula M. Staudinger, Rektorin der TUD, sieht in dem Deal eine Blaupause für den deutschen Innovationsstandort: „Das Investitionsvolumen unterstreicht eindrucksvoll das Potenzial dieser Technologie [...] Zugleich zeigt dieser Meilenstein, wie konsequent und erfolgreich die TUD den Transfergedanken lebt.“

Für Seamless Therapeutics beginnt nun die Arbeit, die rekombinase-basierte Technologie gemeinsam mit Eli Lilly durch die anspruchsvollen Phasen der Medikamentenentwicklung zu bringen – mit einem Team, das wissenschaftliche Exzellenz nun mit internationaler Management-Erfahrung verbindet.

Neues Venture Studio und 30-Mio.-Fonds für Europas Sicherheitstechnologien

Ein Konsortium aus Beratung, Venture Building und Kapitalmanagement startet eine neue Initiative für Technologien im Bereich „Resilience & Defence“. PwC Deutschland, Bridgemaker und Segenia Capital haben am 12. Februar den Launch eines gemeinsamen Venture Studios bekannt gegeben. Die Allianz positioniert sich als „System-Integrator“, um die Lücke zwischen universitärer Forschung und marktfähigen Produkten im Sicherheitssektor zu schließen.

Der Markt für Sicherheitstechnologie und den Schutz kritischer Infrastrukturen (KRITIS) wandelt sich von einer Nische zum zentralen Fokus der europäischen Innovationspolitik. Mit dem neuen Venture Studio reagieren die Initiatoren auf die geopolitische Notwendigkeit, technologische Souveränität in Europa zu stärken.

Für Gründer*innen im DeepTech-Bereich eröffnet sich damit eine Alternative zum klassischen Venture Capital (VC). Während normale VCs oft erst investieren, wenn ein Produkt Marktumsätze zeigt („Product-Market-Fit“), setzt diese Initiative früher an. Sie adressiert spezifisch die hohen Hürden im Defence-Sektor – wie langwierige staatliche Beschaffungsprozesse und komplexe Regulierung.

Smart Money statt nur Kapital: Der „System-Integrator“-Ansatz

Das Kernproblem vieler europäischer DeepTech-Start-ups ist die Skalierung von der reinen Forschung (Technology Readiness Level 1) hin zur industriellen Anwendung (Level 6+). Während Milliarden-Töpfe wie der NATO Innovation Fund oft erst in Wachstumsphasen greifen, fehlt es häufig an Kapital für die „schmutzige Phase“ des Prototypenbaus („Valley of Death“).

Das Konsortium tritt hier nicht als reiner Geldgeber auf, sondern bündelt drei Disziplinen, um Dual-Use-Technologien (zivile und militärische Nutzbarkeit) schneller zur Marktreife zu bringen:

  1. Regulatorik & Marktzugang (PwC Deutschland): Unterstützung bei der Navigation durch behördliche Anforderungen („Vergaberechts-Compliance“).
  2. Company Building (Bridgemaker): Operative „Execution Power“ beim Aufbau der Ventures – von der Hardware bis zur Software.
  3. Kapital (Segenia Capital): Professionelles Fondsmanagement für die Frühphase.

Für Gründer*innen wirkt dieses Setup wie ein Qualitäts-Filter: Wer das Studio durchläuft, gilt für spätere Series-A-Investoren als „vorgeprüft“ und regulatorisch abgesichert.

Bekannte Gesichter aus dem Ökosystem

Die Personalien hinter der Initiative signalisieren Branchenkennern, dass hier operatives Verständnis auf politisches Netzwerk trifft.

Federführend bei PwC agiert Florian Nöll. Als ehemaliger langjähriger Vorsitzender des Bundesverbands Deutsche Startups gilt er als einer der wichtigsten Brückenbauer zwischen der Berliner Politik und der Gründerszene. Seine Erfahrung ist essenziell, um junge Tech-Firmen durch die oft starren Beschaffungsprozesse der öffentlichen Hand zu navigieren.

Auf der operativen Seite bringt Henrike Luszick (CEO Bridgemaker) einen Track Record ein, der über reine Software-Modelle hinausgeht. Mit Ventures wie Nestor (einem Joint Venture für mobile Überwachungssysteme mit KI-Analyse) hat der Company Builder bereits bewiesen, dass er Hardware-Themen im Sicherheitsbereich erfolgreich am Markt platzieren kann.

30-Millionen-Euro-Fonds & der „Dual-Use“-Hebel

Parallel zum operativen Studio-Betrieb wird ein Venture Fonds mit einem Zielvolumen von 30 Millionen Euro aufgelegt. Segenia Capital, als bei der BaFin registrierter AIFM-Manager, übernimmt die Verwaltung. Die im Vergleich zu Mega-Fonds überschaubare Summe unterstreicht den Fokus auf die Pre-Seed- und Seed-Phase (Tickets ca. 500k – 1,5 Mio. EUR). Der Fonds operiert nach einem „Dual-Track-Ansatz“: Er finanziert sowohl interne Ausgründungen des Studios als auch externe Startups, die strategisch ins Portfolio passen.

Dass München als einer der zentralen Standorte gewählt wurde, ist strategisch kein Zufall. Die bayerische Landeshauptstadt hat sich – getrieben durch die TU München und Einhörner wie Quantum Systems – zum europäischen Hub für DefenceTech entwickelt.

Für Gründer*innen ist zudem der strategische Fokus auf Dual-Use entscheidend. Technologien, die primär für Resilienz und den Schutz kritischer Infrastrukturen entwickelt werden, aber auch militärisch nutzbar sind, umschiffen die strengen ESG-Hürden vieler institutioneller Investoren. Dies öffnet Kapitalquellen, die reinen Rüstungs-Start-ups oft verschlossen bleiben.

Einordnung: Reality Check – Hürden bleiben bestehen

Trotz der prominenten Unterstützung und der Marktlogik müssen interessierte Gründer*innen genau hinsehen. Venture-Studio-Modelle stehen oft in der Kritik, durch hohe Service-Anteile für das operative „Building“ die „Cap Table“ (Gesellschafterstruktur) frühzeitig zu verwässern. Wenn Studio und Fonds signifikante Anteile halten, bleibt Gründer*innen oft weniger Equity, was Folgerunden mit externen VCs erschweren kann („Skin in the Game“-Debatte).

Zudem sind 30 Millionen Euro im kapitalintensiven Hardware-Sektor schnell aufgebraucht – das Risiko einer Finanzierungslücke nach der Seed-Phase bleibt. Die größte Unbekannte ist jedoch der Kunde Staat: Auch mit PwC im Rücken gelten für Start-ups weiterhin die strengen Vergaberechte der öffentlichen Hand. Ob das Studio diese „Paperwork Barrier“ tatsächlich signifikant verkürzen kann, muss die Praxis erst noch zeigen.

Key Facts

  • Initiatoren: PwC Deutschland, Bridgemaker, Segenia Capital
  • Marktpositionierung: Early-Stage „System-Integrator“ (Kapital + Regulatorik + Building)
  • Fokus: Resilience, Defence Technology, KRITIS, Dual-Use
  • Finanzierung: Fonds mit 30 Mio. EUR Zielvolumen (Pre-Seed/Seed Fokus)
  • Investitionsstrategie: Neugründungen (Inkubation) und externe Direktinvestments
  • Standorte: Berlin, Frankfurt am Main, München

1,3 Mio. Euro Finanzierung für BauTech-Start-up conmeet

Das 2023 von Benedikt Kisner, Leandro Ananias und Lennart Eckerlein gegründete conmeet bietet eine All-in-One-Plattform für das Bau- und Handwerksgewerbe.

Nach Jahren der Entwicklung im „Stealth Mode“ meldet sich das Cloud-Software-Start-up conmeet mit einem Erfolg am Markt: Das 2023 gegründete Unternehmen hat seine Pre-Seed-Finanzierungsrunde über 1,3 Millionen Euro abgeschlossen. Das frische Kapital soll die Markteinführung der All-in-One-Plattform für das Bau- und Handwerksgewerbe beschleunigen. Als Lead-Investor tritt der VC-Fonds May Ventures auf.

Das im nordrhein-westfälischen Borken ansässige Unternehmen zielt mit seiner Lösung auf die Digitalisierung mittelständischer Bau- und Handwerksunternehmen ab. Kern des Geschäftsmodells ist eine cloud-native Plattform, die verschiedene Unternehmensbereiche wie CRM, ERP, Projektmanagement, Controlling und Banking in einer zentralen Anwendung bündelt. Ziel ist es, die in der Branche weit verbreitete Fragmentierung durch isolierte Softwarelösungen – den sogenannten „Flickenteppich“ – aufzulösen.

Erfahrene Gründer und erfolgreicher Track-Record

Hinter conmeet steht ein Trio mit komplementären Kompetenzen, das die Software in den vergangenen zwei Jahren im Verborgenen entwickelte, bevor im Sommer 2023 die formale Gründung der GmbH erfolgte und vor einigen Monaten die ersten Kunden angebunden wurden.

Der Einstieg von CEO Benedikt Kisner in den ConTech-Markt wird in der Szene dabei besonders aufmerksam verfolgt. Kisner lieferte mit dem Aufbau der netgo group eine der beachtlichsten Wachstumsstorys im deutschen IT-Mittelstand ab. Er führte das Unternehmen bis zum Exit an den Private-Equity-Investor Waterland – zum Zeitpunkt seines Ausstiegs verzeichnete die Gruppe über 1.300 Mitarbeitende und erwirtschaftete Umsätze im dreistelligen Millionenbereich. Komplettiert wird das Gründungsteam durch CTO Leandro Ananias und COO Lennart Eckerlein, der langjährige Führungserfahrung aus dem Handwerkssektor einbringt.

Marktanalyse: Angriff auf den App-Dschungel

Mit dem Marktstart tritt conmeet in ein dicht besiedeltes und umkämpftes Wettbewerbsfeld ein. Moderne Cloud-Herausforderer wie ToolTime, Plancraft oder HERO Software haben in den letzten Jahren bereits erfolgreich digitale Lösungen im Handwerk etabliert. Diese Anbieter punkten oft mit hoher Benutzerfreundlichkeit bei spezifischen Workflows wie Terminplanung oder Angebotserstellung und adressieren primär kleine bis mittlere Betriebe.

Die Differenzierungsstrategie von conmeet zielt jedoch auf eine Lücke im "Upper Mid-Market": Während viele Wettbewerber als Insellösungen fungieren, die über Schnittstellen verbunden werden müssen, positioniert sich das Start-up als integriertes Betriebssystem. Anstatt nur Büroprozesse zu digitalisieren, greift die Software tiefer in die Wertschöpfungskette ein – von der integrierten Banksteuerung bis zur Einbindung von Subunternehmern in Projekthierarchien.

Die Marktchancen stehen dabei gut, da der Leidensdruck in der Branche wächst: Der anhaltende Fachkräftemangel zwingt Bauunternehmen zur drastischen Effizienzsteigerung. Wer nicht mehr Personal findet, muss die Verwaltung automatisieren. Genau hier – in der komplexen Steuerung von Großprojekten und Firmenverbünden – will conmeet sich etablieren.

Starkes Eigeninvestment der Gründer

Eine Besonderheit der aktuellen Runde: Die drei Gründer beteiligen sich selbst mit einem substanziellen Betrag aus eigener Tasche an der Finanzierung. Als Lead-Investor tritt der Venture-Capital-Fonds May Ventures unter der Leitung von Managing Partner Maximilian Derpa auf. Derpa sieht in der Kombination aus technologischer Kompetenz und der durch Eckerlein eingebrachten Branchenerfahrung den ausschlaggebenden Faktor für das Investment: „Conmeet adressiert ein echtes Problem im Mittelstand mit einer technologisch fortschrittlichen Lösung“, so Dominik Lohle von May Ventures.

Ausblick: KI-Integration und Ökosystem

Mit den eingeworbenen 1,3 Millionen Euro plant das Start-up den Ausbau der Teams in Vertrieb, Marketing und Produktentwicklung. Mittelfristig verfolgt das Unternehmen ambitionierte Technologieziele: Geplant ist der Einsatz von KI-Agenten zur autonomen Steuerung von Geschäftsprozessen. Parallel soll die Plattform zu einem umfassenden Ökosystem für die Immobilienwirtschaft ausgebaut werden – von Architekten über Generalunternehmer bis hin zum Facility Management.

GeneralMind: 12 Mio. Dollar Investment nur 6 Monate nach Gründung

Das Berliner KI-Start-up GeneralMind entwickelt ein sog. autonomes AI System of Action, das wiederkehrende, komplexe Arbeitsschritte entlang von Waren- und Zahlungsflüssen automatisiert.

GeneralMind, ein „KI System of Actionˮ zur Automatisierung von digitaler Zettelwirtschaft, unstrukturierter Koordination sowie ineffizienter manueller Prozesse entlang der gesamten Lieferkette, gibt heute den Abschluss seiner Eigenkapitalfinanzierung in Höhe von 12 Millionen US-Dollar bekannt. Die Runde ist eine der größten bekannten europäischen Pre-Seed Runden der letzten Jahre und wurde weniger als sechs Monate nach der Aufnahme der Geschäftstätigkeit des Unternehmens abgeschlossen. GeneralMind will die Mittel verwenden, um die Skalierung seiner Technologie in Europa voranzutreiben.

Angeführt wurde die Finanzierungsrunde von Lakestar, Leo Capital, Lucid Capital, Heliad, BOOOM, mit Partizipierung von etablierten Angel-Investoren wie Alexander Kudlich, Jens Urbaniak, Samir Sood und Vishal Lugani.

GeneralMind wurde in Berlin vom Gründerteam um die Razor Group gemeinsam mit führenden Technologen aus dem Silicon Valley gegründet: Tushar Ahluwalia Shrestha Chowdhury, Dr. Oliver Dlugosch, Lennart von Hardenberg, Nishrit Shrivastava und Sergiu Șoima. Neben dem Hauptsitz in Berlin betreibt das Unternehmen einen weiteren Standort in Bangalore.

GeneralMind – das „AI System of Action“

Unternehmen arbeiten heute mit sogenannten Systems of Record SoR, zum Beispiel ERP-Systemen, um die Komplexität von Lieferketten zu bewältigen. Trotz dieser Systeme findet ein Großteil der operativen Arbeit weiterhin in E-Mail-Posteingängen und Spreadsheets statt: Teams müssen unstrukturierte Kommunikation und Koordination, Übergaben, Rückfragen und Ausnahmen manuell zusammenführen, nachhalten und in Systeme übertragen. Oft fehlt dabei klare Nachverfolgbarkeit, es entstehen Medienbrüche und die Fehleranfälligkeit ist hoch, obwohl genau diese Arbeit entscheidend ist, um die Lieferkette zuverlässig am Laufen zu halten.

GeneralMind entwickelt das „AI System of Action“ (SoA), um genau diese manuelle, repetitive Arbeit sowie unstrukturierte Koordination entlang der Lieferkette end-to-end zu übernehmen, als operative KI-Ebene über bestehenden Systemen, menschenüberwacht und bei Bedarf mit Freigabe.

KI-Autopilot für operative Prozesse mit menschlicher Fähigkeit

Der KI-Autopilot von GeneralMind übernimmt die „digitale Zettelwirtschaft" entlang komplexer Lieferketten, indem er automatisiert manuelle, repetitive Abläufe zwischen E-Mail, Excel und ERP-Systemen autonom ausführt. Eingehende Aufgaben (oft per E-Mail) werden erfasst, analysiert und anschließend end-to-end ausgeführt. Besonders dort, wo viele kleinteilige Aufgaben zuverlässig abgearbeitet, Abstimmungen sauber nachgehalten, Termine und Fristen gesichert und zahlreiche interne und externe Stakeholder entlang des Prozesses koordiniert werden müssen. Zum Beispiel in Beschaffung, Vertrieb oder der Rechnungsbearbeitung.

Diese „digitale Zettelwirtschaft“ kostet global agierende Unternehmen entlang ihrer Lieferketten teilweise Umsätze in Milliardenhöhe. Ware bleibt liegen, Entscheidungen verzögern sich, Aufgaben gehen im Tagesgeschäft unter.

„Unternehmen wissen oft genau, wo es hakt, scheitern aber an der operativen Umsetzung“, sagt Tushar Ahluwalia, Gründer und CEO von GeneralMind. „Ich habe im E-Commerce immer wieder gesehen, wie digitale Zettelwirtschaft, ineffiziente manuelle Prozesse und schmerzhafte Stakeholder-Koordination zwischen unstrukturierter Kommunikation und ERP-Systemen enorme Ineffizienzen in großen Unternehmen erzeugen. Genau dieses Problem lösen wir mit GeneralMind. Unsere KI übernimmt diese Prozesse end-to-end; kein Copilot, sondern mit Autopilot-Funktionalität, die von Menschen überwacht und bei Bedarf freigegeben wird“, ergänzt er.

Millionen-Spritze gegen den Brain Drain: Blockbrain holt 17,5 Mio. Euro

Wissen ist das neue Gold – doch es wandert oft mit den Mitarbeitenden aus der Tür. Das 2022 gegründete Stuttgarter Scale-up Blockbrain will das verhindern. Mit einer „No-Code“-Plattform konservieren die Gründer Antonius Gress, Mattias Protzmann und Nam Hai Ngo Firmenwissen in KI-Agenten. Jetzt gab es frisches Kapital, dass primär in die Expansion nach Großbritannien und Europa sowie in die Produktentwicklung fließen soll.

Der demografische Wandel setzt Unternehmen unter Druck: Wenn erfahrene Fachkräfte in den Ruhestand gehen oder kündigen, hinterlassen sie oft nicht nur eine leere Stelle, sondern eine Wissenslücke. Eingespielte Prozesse und implizites Erfahrungswissen („Tribal Knowledge“) gehen verloren. Genau hier hakt Blockbrain ein. Das Tech-Unternehmen gab heute den Abschluss einer Serie-A-Finanzierungsrunde über 17,5 Millionen Euro bekannt.

Angeführt wird die Runde vom Münchner VC Alstin Capital und dem Londoner Tech-Investor 13books Capital. Zudem stockten die Bestandsinvestoren Giesecke+Devrient Ventures, Landesbank Baden-Württemberg Ventures und Mätch VC ihr finanzielles Engagement auf. Auch das Family Office von Harting beteiligte sich an der Runde, was die Gesamtfinanzierung des Unternehmens auf 22,5 Millionen Euro hebt.

Vom Konzern-Problem zur Start-up-Lösung

Dass Blockbrain bei der Industrie einen Nerv trifft, liegt auch an der DNA des Gründerteams. CEO Antonius Gress kennt die Schmerzen großer Organisationen aus seiner Zeit bei Bosch, während CTO Mattias Protzmann als Mitgründer von Statista bereits bewiesen hat, wie man Datenmodelle skaliert. Dritter im Bunde ist Nam Hai Ngo (ehemals Antler).

Ihr Ansatz: Eine „No-Code“-Plattform, mit der Unternehmen ohne Programmieraufwand sogenannte Knowledge Bots erstellen können. Diese digitalen Zwillinge speichern nicht nur Dokumente, sondern bilden Entscheidungslogiken und Methodenwissen von Experten ab. Die Anwendungsfelder reichen vom schnelleren Onboarding neuer Mitarbeiter bis zur Automatisierung komplexer Vertriebsprozesse.

Der Markt scheint ihnen recht zu geben: 2025 konnte Blockbrain nach eigenen Angaben den Umsatz verfünffachen. Kunden wie Bosch, Roland Berger und die Seifert Logistics Group setzen die Lösung bereits ein. Letztere berichtet von einer Zeitersparnis von bis zu 15 Prozent pro Woche durch die KI-Assistenten.

Sicherheit als „Moat“ gegen ChatGPT & Co.

Während viele Unternehmen beim Einsatz generativer KI wegen Halluzinationen und Datenlecks zögern, positioniert sich Blockbrain als der „sichere Hafen“. Die Plattform ist nicht nur ISO-27001-zertifiziert und „EU-AI-Act-ready“, sondern ermöglicht durch eine Multi-Model-Architektur auch die volle Datensouveränität. Kund*innendaten können bei Bedarf in regionalen Cloud-Umgebungen des Nutzenden verbleiben.

Wie groß der Vorsprung vor herkömmlichen Enterprise-Lösungen ist, untermauert das Start-up mit Zahlen: In einem unabhängigen Benchmark des Sicherheitsspezialisten Giesecke+Devrient erzielte Blockbrain 92 von 105 Punkten – der Zweitplatzierte kam lediglich auf 58 Punkte. „Sich einfach auf Versprechungen und die Stärke eines Modells zu verlassen, ist im Unternehmenskontext schlicht nicht genug“, kommentiert CTO Protzmann die Strategie.

Expansion mit „Forward-Deployed“ Ingenieuren

Das frische Kapital fließt nun primär in die Expansion nach Großbritannien und Europa sowie in die Produktentwicklung. Dabei setzt Blockbrain auf ein spezielles Personalmodell: Sogenannte Forward-Deployed AI-Engineers sollen Kund*innen eng bei der Integration begleiten – remote oder vor Ort. Ziel ist es, Recherche-Workflows weiter zu automatisieren und KI vom Experimentierfeld zum verlässlichen Werkzeug im Kerngeschäft zu machen.