Climate-Tech-Start-up SQUAKE sichert sich 3,5 Mio. Euro Wachstumskapital


44 likes

Das 2020 von Philipp von Lamezan und Dan Kreibich gestartete Berliner Climate-Tech-Start-up bietet akkurate Emissionsberechnungen und Reduktionsmaßnahmen für Reise- und Logistikemissionen an.

SQUAKE gibt heute bekannt, dass es mit Simon Capital als Lead unter Beteiligung von Schenker Ventures und Rivus Capital eine Finanzierungsrunde in Höhe von 3,5 Millionen Euro abgeschlossen hat. Auch die bestehenden Investoren Neosfer und Backbone Ventures sowie die Business Angels Michael Riegel und Matthäus Niewodniczanski haben sich an der Finanzierungsrunde beteiligt und schließen sich der Kapitalbeteiligung der Lufthansa Group an.

Das frische Kapital, mit dem sich die bisherige Gesamtfinanzierung von SQUAKE auf 5 Millionen Euro erhöht, wird für technologische Forschung und Entwicklung sowie für die Einstellung neuer Mitarbeiter verwendet, um der wachsenden Nachfrage gerecht zu werden sowie das Wachstum in strategischen Märkten voranzutreiben.

Das 2020 von Philipp von Lamezan (CEO) und Dan Kreibich (CPO) gestartete Berliner Unternehmen SQUAKE, das aus dem Lufthansa Innovation Hub hervorgegangen ist, arbeitet seit 2021 unabhängig. Über eine Programmierschnittstelle (API) fügt sich SQUAKE nahtlos in das Backend jeder digitalen Infrastruktur ein, um präzise Emissionsberechnungen für jegliche Reise- und Logistikaktivitäten – wie etwa Flüge, Lieferungen, Autovermietung und Hotels – auf Grundlage nationaler und internationaler Standards zu ermöglichen. Dabei überbrückt SQUAKE zusammen mit den Kund*innen und Partner*innen die enorme Lücke im Emissionsbewusstsein dieser Branchen, indem es auf nachhaltigere Möglichkeiten hinweist und so eine informationsbasierte Entscheidungsfindung ermöglicht.

Trotz eines breiteren Angebots an umweltfreundlicheren Alternativen sind die CO2-Emissionen nach wie vor hoch, weshalb Reduktions- & Kompensationsmaßnahmen erforderlich sind. SQUAKE konzentriert sich mit seinem Portfolio hauptsächlich auf die Kohlenstoffentfernung und -speicherung. Indem SQUAKE Kund*innen mit geprüften und etablierten Partner*innen auf der ganzen Welt verbindet – darunter Anbieter*innen von nachhaltigen Flugkraftstoffen, Direct Air Capture und Aufforstung – automatisiert SQUAKE den Prozess der Kohlenstoffentfernung und -speicherung. Durch ein streng qualifiziertes Partnernetzwerk macht SQUAKE wirksame Klimaschutzmaßnahmen so für Unternehmen und ihre Kund*innen zugänglich.

Endnutzende wie Reisende und Logistikeinkäufer*innen haben so die Möglichkeit, pragmatisch mit ihren Emissionen umzugehen, da die SQUAKE-Technologie in die Infrastruktur von Unternehmen integriert wird – von Buchungstools und Reisebüros bis hin zu Logistik-Plattformen. Darüber hinaus wird durch die Zusammenarbeit mit externen Prüfer*innen die Datensicherheit der Plattform optimiert und so Bewusstsein und Vertrauen unter den Kund*innen geschaffen.

Philipp von Lamezan, CEO und Co-Founder von SQUAKE, kommentiert: „Die nachhaltige Transformation der Reise- und Logistikbranche steht vor vielen Herausforderungen. Die EU hat sich zum Ziel gesetzt, die Kohlendioxidemissionen bis 2030 um 55 Prozent gegenüber 1990 zu senken. Vor wenigen Wochen wurde jedoch bekannt, dass die globale Erwärmung zum ersten Mal die wichtige Grenze von 1,5 Grad überschreiten wird.  Angesichts des zunehmenden Drucks von Kunden, Wettbewerbern und Investoren unterstützen wir Unternehmen – so schnell wie möglich, um einen Wandel zu schaffen.“

„Zwar wurden Verbesserungen in der Lieferkette erzielt – von nachhaltigen Kraftstoffen über die Optimierung von Motoren bis hin zur Reduzierung von Kunststoffen – doch fehlt es den Entscheidungsträgern in allen Bereichen immer noch an wichtigen Kenntnissen, um nachhaltigere Kaufentscheidungen zu treffen. Nachhaltigkeit und Wirtschaft gehen Hand in Hand, aber Vertrauen ist entscheidend, damit diese Partnerschaft funktioniert. Unsere Investoren und Unternehmenspartner sind ein Beweis für das Vertrauen, das wir bereits aufgebaut haben. Aber es gibt noch viel zu tun und wir dürfen keine Zeit mehr verlieren.“

Jan Leicht, Partner bei Simon Capital, fügt hinzu: „Die Mobilität von Menschen und Gütern steht im Zentrum unseres täglichen Lebens und wird es auch weiterhin erschweren, unsere CO2-Emissionen zu verringern. Für uns hebt sich SQUAKE durch seine einzigartige Unternehmensgeschichte deutlich von seinen Mitbewerbern ab. Es ist aus der Reise- und Logistikbranche hervorgegangen und wurde für diese entwickelt. Die Tatsache, dass Branchengrößen wie Reed & Mackay, HomeToGo oder DB Schenker Partner von SQUAKE sind, ist eine Anerkennung für das beeindruckende Produkt und bedeutet, dass bereits heute Millionen von Menschen von der bereitgestellten Technologie profitieren können.“

Paulina Banszerus, Head of Venture Capital bei Schenker Ventures: „Wir sind beeindruckt durch die von SQUAKE entwickelte Technologie. Wir sehen großes Potenzial, die nachhaltige Transformation unserer Industrie mit dieser Lösung voranzutreiben.“

Wahrheit als Geschäftsmodell: Neuramancer sichert sich 1,7 Mio. Euro für Deepfake-Detektor

In einer Zeit, in der Deepfakes als handfeste wirtschaftliche Bedrohung gelten, positioniert sich ein deutsches Start-up als digitaler Detektiv. Doch kann ein junges Team aus Oberbayern im globalen Wettrüsten zwischen KI-Fälscher*innen und Detektoren wirklich bestehen?

Angeführt wird die 1,7 Millionen-Euro-Runde von Vanagon Ventures, während sich mit Bayern Kapital über den Innovationsfonds EFRE II auch ein gewichtiger institutioneller Partner beteiligt. Das Konsortium wird durch das Family Office Lightfield Equity, den neu gegründeten ZOHO.VC sowie mehrere strategisch erfahrene Business Angels vervollständigt.

Wenn Forschung auf Versicherung trifft

Hinter Neuramancer steht ein Führungstrio, das akademische Tiefe mit Branchenexpertise vereint. Den technologischen Grundstein legte Anatol Maier, der als technischer Architekt und CTO das wissenschaftliche Rückgrat bildet. Seine an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Bereich IT-Sicherheit entwickelte Methodik bildet heute das proprietäre Herzstück der Plattform.

Flankiert wird er von Anika Gruner, die als CEO die strategischen Fäden in der Hand hält. Durch ihre Stationen beim Bayerischen Rundfunk und bei Burda kennt sie die Mechanismen der Medienwelt und die Gefahren durch Desinformation aus erster Hand.

Um die technologische Lösung nun in marktfähige Bahnen zu lenken, komplettiert Martin Sondenheimer als Chief Commercial Officer das Team. Mit seiner Erfahrung als Venture-Experte bei Branchenriesen wie der Munich Re und der Allianz soll er die entscheidende Brücke zur Versicherungswirtschaft schlagen – dem Sektor, den Neuramancer als seinen ersten Fokusmarkt definiert hat.

Dem digitalen Rauschen auf der Spur

Während viele Wettbewerber auf eine rein visuelle Analyse setzen, geht Neuramancer eine Ebene tiefer. Die Plattform konzentriert sich auf die Analyse von Hintergrundrauschen und statistischen Artefakten in Bild- und Videodateien. Jede generative KI hinterlässt beim Erstellungsprozess einer Datei eine Art mathematischen Fingerabdruck. Neuramancer nutzt eigene, probabilistische Algorithmen, um diese Spuren zu isolieren. Ein wesentlicher Vorteil dieses Ansatzes ist die angestrebte Transparenz: Das System liefert mathematisch nachvollziehbare Beweise statt vager Wahrscheinlichkeiten. Dies ist insbesondere für die Akzeptanz vor Gericht oder in komplexen Versicherungsfällen ein entscheidendes Kriterium.

Zwischen Nischen-Spezialisten und Big Tech

Neuramancer tritt in einen Markt ein, der gerade erst erwachsen wird, aber bereits von verschiedenen Seiten besetzt ist. Die Wettbewerbslandschaft teilt sich dabei in drei Lager auf. Zum einen agieren internationale Schwergewichte wie Reality Defender (USA) oder DuckDuckGoose (Niederlande), die über deutlich höhere Finanzmittel verfügen.

Auf nationaler Ebene trifft Neuramancer auf spezialisierte Konkurrent*innen wie das Start-up VAARHAFT, das sich ebenfalls auf die automatisierte Prüfung von Schadensbildern fokussiert hat. Schließich arbeiten auch Tech-Giganten wie Intel oder Adobe innerhalb der Content Authenticity Initiative an eigenen Standards. Während Adobe verstärkt auf digitale Wasserzeichen setzt, um Originale zu kennzeichnen, muss Neuramancer beweisen, dass die nachträgliche Detektion von Fälschungen der effizientere Weg für Unternehmen ist.

Das Risiko der technischen Kurzlebigkeit

Trotz der exzellenten Forschungsgrundlage steht das Start-up vor Hürden. Eine der größten technischen Herausforderungen ist das Kompressions-Dilemma: Wenn Deepfakes über Dienste wie WhatsApp verschickt werden, geht oft genau das feingliedrige Rauschen verloren, auf das Maiers Algorithmen angewiesen sind. Das Team muss beweisen, dass die Technologie auch unter realen Bedingungen mit stark komprimierten Dateien robust bleibt. Zudem wirkt das Funding von 1,7 Millionen Euro im Vergleich zu den zweistelligen Millionenbeträgen der US-Konkurrenz fast bescheiden, was einen extrem effizienten Mitteleinsatz erfordert. Nicht zuletzt bleibt das Geschäft ein permanentes Wettrüsten: Sobald Detektionsmechanismen bekannt sind, könnten künftige KI-Modelle darauf trainiert werden, genau diese statistischen Spuren von vornherein zu vermeiden.

Fazit und Einordnung

Neuramancer ist ein Paradebeispiel für ein DeepTech-Spin-off, das den Sprung aus der Universität über renommierte Förderprogramme wie das Media Lab Bayern oder die Bundesagentur SPRIND in die kommerzielle Welt geschafft hat. Der Erfolg wird maßgeblich davon abhängen, wie schnell das Start-up die Versicherungswirtschaft als zahlende Kund*innen skalieren kann, bevor die nächste Generation von KI-Generatoren die aktuellen Algorithmen technologisch überholt. Ein riskanter, aber technologisch hochspannender Case für den Standort Deutschland.

Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard

Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.

Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.

Das Team: Konzern-Know-how trifft Deep-Tech

Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.

Das Problem: Fragmentierung als Kostentreiber

Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.

Der USP: Schwarmintelligenz statt zentralem Broker

Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.

  • Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
  • Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
  • Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.

Die Herausforderung: Die Open-Source-Falle im B2B

Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.

Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.

Der Wettbewerb

Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.

  • Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
  • Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
  • Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.

Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.

Fazit: Infrastruktur statt App-Spielerei

Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Open-Source als trojanisches Pferd

Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.

2. Die blinden Flecken der Tech-Giganten besetzen

Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.

3. Regulatorik als Vertriebsturbo nutzen

Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.

European Dynamism-Report zeigt Europas Tech-Paradoxon

Laut den Autoren des aktuellen „European Dynamism“-Reports bringt Europa mittlerweile gefühlt im Wochentakt neue Unicorns hervor. Doch bei der globalen Skalierung wandert die Wertschöpfung zu oft ab. Die Studie zeigt, in welchen sechs Deeptech-Nischen europäische Start-ups die unangefochtenen Kategorie-Führer von morgen bauen können. StartingUp hat die Ergebnisse analysiert und zeigt, was das für eure Go-to-Market-Strategie bedeutet.

Das europäische Start-up-Ökosystem ist laut dem Report „European Dynamism“ im Auftrag von redalpine deutlich reifer geworden. Die Studienautoren konstatieren, dass neue Unicorns zuletzt gefühlt im Wochentakt entstehen. Zudem schlagen europäische VC-Fonds ihre US-Konkurrenten über lange Zeithorizonte, und das Funding zog 2025 wieder spürbar an. Doch der Report benennt ein neues europäisches Tech-Paradoxon: Der zentrale Engpass liegt heute weniger bei Talent, Forschung oder Finanzierung. Es geht vielmehr um die Frage, wo die Wertschöpfung beim globalen Scaling in der Region gehalten werden kann.

Die Kernthese der Studie: Europas Wettbewerbsvorteil liegt exakt dort, wo Software, Wissenschaft und Industrie eng zusammenkommen. Genau hier entstehen neue Cluster, in denen Deutschland eine sichtbar größere Rolle spielt. Berlin etabliert sich dabei laut Report als Standort für Enterprise AI, während München sich als Deeptech-Knoten über die Bereiche Fusion, Space, Health und Robotics hinweg wiederholt.

Die 6 Felder, in denen Europa global gewinnen kann

Die Deep Dives der Studie decken sechs Sektoren ab , in denen Europa nicht nur gründen, sondern den Wert auch langfristig halten und anführen kann:

  • Intelligent Enterprise: Im Bereich Intelligent Enterprise verschiebt sich der Wettbewerb von Foundation Models zu Workflows. Entscheidend ist, ob ein Modell ganze Unternehmensprozesse orchestrieren, verifizieren und tief in Kundenabläufe integrieren kann. Europas Chance liegt laut Report vor allem in Vertical AI und im Orchestrierungs-Layer. Sichtbare Player am Standort Berlin sind hier Start-ups wie n8n und Parloa, während sich das Funding für europäische Enterprise-AI-Startups 2024/25 mehr als verdoppelt hat.
  • Digital Health: Digital Health verlässt die Wellness-Ecke und wird zur klinischen Infrastruktur. Der Report beschreibt einen Shift hin zu "medical-grade devices" und spezialisierter AI für konkrete Versorgungsprobleme. Diese reichen von Wearables (wie Oura und Hilo/Aktiia) bis zu Anwendungen (wie Voize und Avelios), die direkt in klinische Abläufe eingreifen. Europas Vorteil liegt hierbei in Validierung, Regulierung und klinischer Alltagstauglichkeit.
  • New Energy: Im Energiekapitel setzt der Report vor allem auf die Kernfusion als europäische Souveränitätswette. Das globale Investment in Fusion stieg 2025 laut Report um knapp 500 % auf 3,8 Mrd. Dollar. Europas Trumpf ist dabei laut den Autoren nicht die größte Kapitalmaschine , sondern die ITER/CERN-Erfahrung, die Engineering-Tiefe und komplexe Präzisionsfertigung , exemplarisch gezeigt am deutschen Start-up Proxima Fusion.
  • Space: Die Raumfahrt wird im Report bewusst entromantisiert. Der kurzfristige Business Case liegt nicht im Weltraumtourismus, sondern in Erdbeobachtung, Navigation, Konnektivität, Defence und orbitaler Infrastruktur. Das Thema ist damit weniger Sci-Fi als vielmehr Industrie-, Sicherheits- und Infrastrukturpolitik. Getrieben von der Debatte um technologische Souveränität wächst der Druck zum Aufbau eigener Satelliten- und Launch-Infrastrukturen. Europa baut hierfür sichtbare Cluster von Toulouse über München bis Glasgow auf.
  • Unlocking Biology: Die Biologie wird laut Report von einer Beobachtungswissenschaft zu einer datengetriebenen Engineering-Disziplin. Große biologische Foundation Models, proprietäre Datensätze und automatisierte Lab-in-the-loop-Setups beschleunigen Design, Test und Iteration. Europas Chance liegt hier laut Report besonders in der Middleware- und Tooling-Schicht zwischen AI-Fähigkeit und therapeutischem Ergebnis.
  • Robotics: Robotik ist im Report kein Nischenthema mehr, sondern ein Feld, in dem Europas industrielle DNA zum echten Vorteil werden könnte. Der Markt ist groß und noch längst nicht verteilt, da laut Report noch rund 70 % der Lagerhäuser nicht automatisiert sind. Das Funding für europäische Robotik-Startups lag 2025 bei über 1,6 Mrd. Euro. Europas stärkste Position liegt dabei eher im „Brain Layer“ als im reinen Hardware-Rennen: in Physical AI, Real-World-Daten und Software, die Robotern den Umgang mit wechselnden Umgebungen beibringt.

StartingUp ordnet ein: 5 strategische Hebel für euer Pitch-Deck

Was bedeuten diese Fakten nun konkret für Gründerinnen und Gründer, die gerade an ihrem Produkt bauen oder Kapital suchen? Wir haben aus den Daten des Reports fünf harte strategische Leitplanken für eure Go-to-Market-Strategie abgeleitet:

  1. Baut den europäischen Burggraben: Pitcht Investoren keinen reinen Software-as-a-Service-Klon aus den USA. Wenn ihr global skalieren wollt, müsst ihr die Stärken des Standorts nutzen. Investoren suchen derzeit gezielt nach Teams, die exzellente Software mit tiefem, hiesigem Industrie- oder Wissenschafts-Know-how verknüpfen.
  2. Orchestrierung statt Basis-Technologie: Der Versuch, bei Foundation Models mit US-Giganten zu konkurrieren, verbrennt meist nur Ressourcen. Positioniert euer Start-up stattdessen intelligent im Orchestrierungs-Layer. Zeigt, dass ihr das Detailgeschäft beherrscht: das fehlerfreie Integrieren und Verifizieren von KI in tief verwurzelte, bestehende Unternehmens-Workflows.
  3. Nutzt Regulierung als euren stärksten USP: Viele Gründer fürchten europäische Regularien. Dreht den Spieß um! Wenn euer "medical-grade" Produkt die strengen europäischen Hürden für klinische Alltagstauglichkeit meistert, habt ihr den ultimativen Qualitätsnachweis für den globalen Markt.
  4. Baut die Schaufeln für den Goldrausch: Ob in Biotech oder Robotik – versucht nicht, den finalen Roboter oder Wirkstoff komplett allein zu bauen. Entwickelt stattdessen die renditestarken Zwischenschichten wie Middleware, Tooling oder den "Brain Layer", also jene Software, die KIs überhaupt erst befähigt, in komplexen Umgebungen zu agieren.
  5. B2B-Infrastruktur schlägt Sci-Fi-Visionen: VCs finanzieren aktuell keine Luftschlösser. Baut euren Business Case in Bereichen wie Space oder Energy auf knallharter Infrastruktur-, Sicherheits- und Industriepolitik auf. Wer Schlagworte wie "technologische Souveränität" glaubhaft mit einem starken B2B-Produkt untermauern kann, punktet beim Fundraising.

Fazit: Vom Gründen zum Überzeugungstäter

Wie die Studie passend zuspitzt: Europa fehlt nicht der nächste Gründerjahrgang. Europa kann gründen – jetzt muss Europa lernen, mit Überzeugung zu skalieren. Wer heute ein Start-up in den Bereichen Deeptech, AI oder Robotics gründet, muss vom ersten Tag an groß denken. Nur wer die Wertschöpfung und das Ownership konsequent in der eigenen Region hält, macht aus einem starken europäischen Start-up auch einen globalen Kategorie-Führer.

Gründer*in der Woche: Picturo – Local Photography, European Scale

Mit der Picturo Photography UG baut Jean Witt eine europaweite Plattform zur einfachen Suche nach lokalen Fotograf*innen auf. Ziel ist es, einen stark fragmentierten Markt zu bündeln, Fotograf*innen sichtbar zu machen und Nutzer*innen eine zentrale Anlaufstelle zu bieten. Mehr dazu im Interview mit dem Gründer.

Picturo klingt nach dem großen Bild. Beschreibe uns deine Idee in wenigen Sätzen – dein Elevator Pitch!

Picturo ist ein internationaler Marktplatz, der die Suche nach lokalen Fotograf*innen weltweit radikal vereinfacht. Statt unübersichtlicher Recherche auf Social Media oder Google bietet Picturo eine zentrale, standortbasierte Plattform. Nutzer*innen finden mit wenigen Klicks die passenden Fotograf*innen für jeden Anlass, während diese wiederum gezielt neue Kund*innen gewinnen. So professionalisiert Picturo einen stark fragmentierten Markt und macht die Suche nach Fotografie-Dienstleistungen so einfach wie die Buchung eines Hotels.

Es gibt bereits viele Plattformen für Fotograf*innen und Bilddatenbanken. Was war der konkrete Auslöser oder gar Pain Point, den du selbst erlebt hast, der dich dazu gebracht hat, Picturo zu gründen?

Der konkrete Auslöser war meine eigene Erfahrung als Reisender. Die Suche nach lokalen Fotografinnen lief fast immer über Direktnachrichten auf Social Media oder über einzelne Webseiten. Dabei musste man jedes Mal Preise, Verfügbarkeiten und Leistungen separat anfragen – oft ohne klare Antworten oder Vergleichsmöglichkeiten. Dieser Prozess ist zeitaufwendig, intransparent und für Nutzer*innen extrem umständlich. Gleichzeitig wurde deutlich, dass es für Fotograf*innen genauso ineffizient ist, jede Anfrage einzeln zu beantworten. Picturo ist aus genau diesem Pain Point entstanden: dem Wunsch nach einer zentralen, einfachen und transparenten Lösung für die Suche nach lokalen Profis.

Ihr sitzt in Esens, also im schönen Ostfriesland, habt aber den Anspruch, Fotograf*innen in „ganz Europa“ zu vernetzen. Wie baut man von einem eher ländlichen Standort aus eine so internationale Community auf?

Unser Standort in Ostfriesland ist für uns kein Nachteil, sondern Teil unserer Geschichte. Picturo ist von Anfang an als digitale Plattform konzipiert worden, bei der der Standort des Teams keine Rolle für die Reichweite spielt. Der Bedarf bei Fotograf*innen in ganz Europa ist so groß, dass Anfragen zur Teilnahme an unserer Plattform bereits heute organisch entstehen. Viele Fotograf*innen suchen gezielt nach Möglichkeiten, international sichtbar zu werden und neue Kund*innen zu erreichen. Durch klare Positionierung, einfache Nutzung und einen starken Fokus auf lokale Sichtbarkeit schaffen wir Vertrauen und Wachstum – unabhängig vom Standort. So bauen wir Schritt für Schritt eine internationale Community auf: digital, skalierbar und nachhaltig.

Euer Portfolio ist breiter als das der Konkurrenz. Wie genau funktioniert das Geschäftsmodell? Zahlt der/die Kund*in pro Bild oder ist es ein Abo-Modell?

Der Kern von Picturo liegt klar auf der Vermittlung und Sichtbarkeit von professionellen Fotografinnen. Unser Geschäftsmodell basiert auf abonnementbasierten Mitgliedschaften für die Fotografinnen. Für Kund*innen ist die Nutzung der Plattform vollständig kosten- und provisionsfrei; ebenso fallen keine Buchungsprovisionen an. Fotograf*innen zahlen eine monatliche Subscription für Sichtbarkeit, Reichweite und den Zugang zu qualifizierten Anfragen. Dieses Modell schafft Transparenz, vermeidet Reibung im Buchungsprozess und ist für beide Seiten fair und planbar.

Ihr bietet auch einen Guide zu lokalen Hotspots (Bars, Cafés) an. Ist das „nur“ ein Content-Marketing-Tool, um Traffic auf die Seite zu bekommen, oder plant ihr Kooperationen mit der Gastronomie als weitere Einnahmequelle?

Der Guide zu lokalen Hotspots ist aktuell in erster Linie als Mehrwert für Nutzer*innen gedacht und unterstützt den organischen Traffic sowie die Sichtbarkeit der Plattform. Gleichzeitig sehen wir darin großes strategisches Potenzial über reines Content-Marketing hinaus. Perspektivisch planen wir, diesen Bereich für Kooperationen mit lokalen Partnern wie Cafés, Bars oder Hotels zu öffnen.

Eine Plattform europaweit zu skalieren, kostet Geld und Ressourcen. Wie habt ihr euch bisher finanziert?

Aktuell ist Picturo vollständig eigenfinanziert und damit komplett gebootstrapped. Die Entwicklung der Plattform sowie der Markteintritt in erste Länder wurden aus eigenen Mitteln realisiert. Nun befinden wir uns an einem Punkt, an dem wir gezielt nach strategischen Partnern und Investor*innen suchen, um die nächste Skalierungsstufe zu erreichen. Ziel ist es, gemeinsam schneller zu wachsen und das internationale Potenzial von Picturo voll auszuschöpfen.

Wenn du auf die Zeit seit der Gründung der UG zurückblickst: Was war bisher der wichtigste Meilenstein, bei dem du wusstest: „Okay, das hier funktioniert wirklich“?

Der wichtigste Meilenstein war die Einführung des Abo-Modells. Trotz der Umstellung auf ein kostenpflichtiges Angebot lief das Onboarding ungebrochen weiter und neue Fotograf*innen traten der Plattform bei. In diesem Moment wurde klar, dass Picturo ein echtes Problem löst und einen echten Mehrwert bietet. Die Bereitschaft, für Sichtbarkeit und Reichweite zu bezahlen, hat bestätigt, dass der Bedarf im Markt vorhanden ist. Ab diesem Punkt war klar: Das Modell funktioniert.

Wo siehst du Picturo in drei Jahren?

In drei Jahren ist Picturo in vielen EU-Ländern aktiv und als internationaler Marktplatz für lokale Fotograf*innen etabliert. Gemeinsam mit starken Partnern ist die Plattform breit ausgerollt und für Nutzer*innen die erste Adresse bei der Fotografensuche.

Und last but not least: Welche Tipps würdest du anderen Gründer*innen geben, die gerade am Anfang stehen – vielleicht auch jenen, die nicht in den großen Hubs wie Berlin oder München sitzen?

Der wichtigste Tipp ist, sich konsequent an einem echten Problem zu orientieren und früh mit Nutzer*innen zu sprechen. Der Standort ist dabei zweitrangig – entscheidend sind Fokus, Umsetzungsstärke und Durchhaltevermögen. Gerade außerhalb großer Startup-Hubs kann man oft ruhiger, effizienter und näher am Markt arbeiten. Wichtig ist, früh zu testen, Feedback ernst zu nehmen und das Produkt Schritt für Schritt zu verbessern. Netzwerke, Partnerschaften und digitale Sichtbarkeit sind heute wichtiger als ein physischer Standort.

Hier geht’s zu Picturo

Das Interview führte StartingUp-Chefredakteur Hans Luthardt

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

11 Mio. Euro für Physical AI: Wie FLEXOO Hardware zum Sprechen bringen will

Das Heidelberger Sensorik-Start-up FLEXOO hat eine Series-A-Finanzierungsrunde über 11 Mio. Euro erfolgreich abgeschlossen. Mit dem Kapital plant FLEXOO die internationale Skalierung seiner Sensorplattform für Batterie-Speichersysteme und die Automobilindustrie.

Vom Forschungsprojekt zum DeepTech-Unternehmen

Hinter dem ambitionierten Vorhaben steht ein fünfköpfiges Gründerteam, das akademisches Know-how mit industriellem Anspruch verbinden will. Geführt wird das Heidelberger Unternehmen von Founding CEO und Managing Director Dr. Michael Kröger. Zum Gründungsteam gehören zudem Sieer Angar (Chairman of the Board), Dr. Mathieu Turbiez (Chief Revenue Officer), Dr. Jean-Charles Flores (Director Market Development North America) und Dr. Janusz Schinke (Managing Director).

Diese starke akademische Prägung ist typisch für DeepTech-Ausgründungen. Das Start-up hat seine technologischen Wurzeln im hochspezialisierten Umfeld der gedruckten Elektronik. Um diese Expertise zu kommerzialisieren, wurde die FLEXOO GmbH im Jahr 2024 offiziell als eigenständiges Spin-off des renommierten Heidelberger InnovationLab gegründet. Die Bündelung dieser Kompetenzen in einer eigenständigen Gesellschaft war der strategische Schritt, um eine Technologiearchitektur, die laut Investorenangaben von der Forschung bis zur Markteinführung validiert wurde, nun auf die globale industrielle Skalierung zu trimmen.

Das Versprechen: Hochauflösende Daten aus dem Inneren der Maschine

FLEXOO adressiert eine reale Schwachstelle aktueller KI-Systeme: KI-Algorithmen benötigen hochauflösende Echtzeit-Daten über den physikalischen Zustand von Hardware. Das Gründerteam hat dafür eine Sensorplattform entwickelt, die ultradünne, flexibel formbare Sensoren mit Edge-AI kombiniert.

Die Kerninnovation liegt laut Unternehmensangaben im Formfaktor: Die Sensoren sind unter 200 Mikrometer dünn und sollen sich nahtlos in nahezu jede Oberfläche oder Struktur integrieren lassen. Im Bereich der Batterietechnologie liefert dies auf dem Papier messbare Mehrwerte: FLEXOO gibt an, dass Validierungen mit führenden Batterieherstellern Kapazitätsgewinne von bis zu 5 Prozent zeigen. Dies soll komplett ohne Änderungen am Batteriezell-Design oder der bestehenden Zellchemie gelingen. Zudem sollen durch die direkten Daten auf Zellebene Frühwarnsysteme etabliert werden, die drohende Batterieausfälle proaktiv verhindern. Solche „bis zu“-Werte sind in frühen Validierungsphasen stets mit Vorsicht zu genießen, bis sie sich in der industriellen Massenanwendung verlässlich reproduzieren lassen.

Die Produktion als eigentlicher Hebel

Der entscheidende Überlebensfaktor für ein Hardware-Start-up ist die Skalierbarkeit der Produktion. FLEXOO setzt hier auf eine hochvolumige Druckfertigung, die nahezu jede Geometrie ermöglichen soll. Die Sensoren werden nicht aufwendig einzeln zusammengebaut, sondern gedruckt. Das ermöglicht laut Aussage der Investoren eine Kostenstruktur, die den breiten industriellen Einsatz erst realistisch macht und ein überzeugendes Preis-Leistungs-Verhältnis liefert.

Das Start-up reklamiert dabei selbstbewusst für sich, den weltweit präzisesten taktilen Sensor zu produzieren. Ob das patentierte Verfahren und die Fertigung „Made in Germany“ diesen technologischen Vorsprung gegen die immense Konkurrenz langfristig verteidigen können, wird sich letztlich in den harten Preisverhandlungen der Zulieferer-Industrie zeigen.

Die Realität der Skalierung: Verträge statt Prototypen

Trotz des starken technologischen Fundaments steht FLEXOO nun vor der klassischen Herkulesaufgabe für Hardware-Start-ups: Die Überführung von vielversprechenden Prototypen in ein profitables Seriengeschäft. Mit dem Abschluss der Series-A-Runde fokussiert sich das Unternehmen 2026 richtigerweise auf den Ausbau des internationalen Vertriebs und die Sicherung strategisch relevanter Lieferverträge. Zudem ist die Bereitstellung von Prototypen der Physical-AI-Plattform an Entwicklungspartner fest eingeplant.

Die Zusammensetzung der Investoren ist hierbei ein strategischer Vorteil: eCAPITAL bringt Erfahrung bei Deep-Tech-Unternehmen und einen klaren Fokus auf ClimateTech sowie IoT mit. AUMOVIO wiederum kann über seine Start-up-Einheit co-pace direkten Zugang zur globalen Automobil- und Mobilitätsindustrie bieten.

Dass FLEXOO parallel Einsatzfelder in stark wachsenden Zukunftsbereichen wie der humanoiden Robotik ins Auge fasst, deutet das enorme Potenzial der Sensor-Plattform an. Ob aus diesem Versprechen jedoch wirklich ein globaler Standard für Physical AI wird, müssen erst die harten Serien-Validierungen der nächsten Jahre zeigen. "Hardware is hard" – das gilt auch für smarte, gedruckte Sensoren aus Heidelberg.

10 Mio. Euro Series-A: VoiceLine transformiert den Außendienst mit Sprach-KI

Das 2020 von Dr. Nicolas Höflinger und Sebastian Pinkas gegründete Münchner Start-up VoiceLine hat eine Finanzierungsrunde über 10 Mio. Euro abgeschlossen, um seine Voice-AI-Plattform für Frontline-Teams international zu skalieren.

Angeführt von Alstin Capital und Peak, unterstützt durch Scalehouse Capital, Venture Stars und NAP, setzt das Unternehmen auf ein massives Umsatzwachstum von 1.000 % gegenüber dem Vorjahr.

Fokus auf den „Motor“ der B2B-Wirtschaft

Die Gründer Dr. Nicolas Höflinger und Sebastian Pinkas haben VoiceLine als Lösung für ein zentrales Problem im Arbeitsalltag von Außendienst-Teams positioniert. Während diese Teams oft den Großteil des Tages beim Kunden oder auf Reisen verbringen, bleibt die CRM-Pflege und Dokumentation häufig auf der Strecke oder wird auf den späten Abend verschoben. Dies führt zu unvollständigen Berichten und dem Verlust wertvoller Marktinformationen. VoiceLine löst dies mit einem KI-Assistenten, der Sprachnotizen direkt in strukturierte CRM-Einträge, Besuchsberichte und Folgeaufgaben überführt.

Messbare Ergebnisse bei Industrie-Größen

Dass der technologische Ansatz funktioniert, belegen die Zahlen bei namhaften Kunden wie DACHSER, ABB, Knauf und KSB. Laut Unternehmensangaben sparen Vertriebsmitarbeiter durch die Lösung rund fünf Stunden pro Woche an administrativem Aufwand ein. Die Datenqualität aus dem Feld steigt um bis zu 400 %, während die Implementierung durch eine proprietäre Engine oft innerhalb weniger Tage abgeschlossen ist. Andreas Schenk, Partner bei Alstin Capital, betont, dass VoiceLine Sprach-KI damit zum echten „Produktivitäts-Hebel“ für mobile Teams macht.

Strategische Expansion und massives Team-Wachstum

Mit dem frischen Kapital plant VoiceLine, die Mitarbeiterzahl am Hauptsitz in München noch in diesem Jahr mehr als zu verdoppeln. Neben der internationalen Expansion soll der Fokus verstärkt auf Branchen wie Pharma, Medtech sowie Versicherungen und Finanzdienstleistungen ausgeweitet werden. CEO Nicolas Höflinger sieht in der Series-A den entscheidenden Meilenstein, um VoiceLine europaweit als Standard-Schnittstelle für Frontline-Organisationen zu etablieren.

ewigbyte: Datenspeicher für die Ewigkeit?

Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.

Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.

In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.

Der Markt: Ein schlafender Riese erwacht

Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.

Lasergravur statt magnetischer Ladung: So funktioniert es

Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.

Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.

Vom Hardware-Verkauf zum „Storage-as-a-Service“

Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.

David gegen Goliath: Das Rennen um das Glas

Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.

Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.

Die technologischen Nadelöhre

Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.

Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).

Digitale Souveränität als Verkaufsargument

Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.

Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.

Milliarden-Coup für Dresdner BioTech: Seamless Therapeutics gewinnt Pharma-Riese Eli Lilly als Partner

Das 2022 gegründete TU-Dresden-Spin-off Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen. Jetzt hat das BioTech eine Forschungskooperation mit dem US-Pharmakonzern Eli Lilly vereinbart. Das Gesamtvolumen des Deals beläuft sich auf bis zu 1,12 Milliarden US-Dollar – wir erklären, was hinter der Summe und der Technologie steckt.

Dass universitäre Spitzenforschung der Treibstoff für wirtschaftlichen Erfolg sein kann, beweist aktuell eine Meldung aus Dresden. Die Seamless Therapeutics GmbH, eine erst 2022 gegründete Ausgründung der Technischen Universität Dresden (TUD), spielt ab sofort in der Champions League der Biotechnologie mit. Mit Eli Lilly konnte eines der weltweit forschungsstärksten Pharmaunternehmen – bekannt u.a. für Durchbrüche in der Diabetes- und Adipositas-Behandlung – als strategischer Partner gewonnen werden.

Der Deal: Mehr als nur eine Schlagzeile

Die Dimensionen der Vereinbarung lassen aufhorchen: Der Kooperationsvertrag beziffert sich auf einen Wert von bis zu 1,12 Milliarden US-Dollar. Doch wie ist eine solche Summe für ein junges Start-up einzuordnen?

In der BioTech-Branche sind solche Verträge oft als sogenannte Bio-Bucks strukturiert. Das bedeutet: Die Milliarde liegt nicht sofort als Koffer voller Geld auf dem Tisch. Der Deal setzt sich in der Regel aus einer substanziellen Sofortzahlung (Upfront Payment) zum Start der Forschung und weiteren, weitaus größeren Teilzahlungen zusammen. Diese fließen erfolgsabhängig, sobald das Startup definierte Meilensteine erreicht – etwa den erfolgreichen Abschluss klinischer Studienphasen oder die Marktzulassung.

Die Technik: Warum Lilly so früh einsteigt

Dass ein Gigant wie Eli Lilly so früh in ein Start-up investiert, liegt an der disruptiven Technologie der Dresdner. Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen.

Während bekannte Verfahren wie die „Genschere“ CRISPR-Cas oft darauf basieren, die DNA-Stränge komplett zu durchtrennen (Doppelstrangbruch) – was zu ungewollten Fehlern bei der zelleigenen Reparatur führen kann –, gehen die Dresdner einen anderen Weg. Sie nutzen sogenannte Designer-Rekombinasen.

Vereinfacht gesagt arbeitet ihre Technologie nicht wie eine grobe Schere, sondern wie ein präzises „Suchen & Ersetzen“-Werkzeug. Sie können genetische „Schreibfehler“ direkt im Erbgut korrigieren, ohne die riskanten Brüche in der Doppelhelix zu erzeugen. Dieser Ansatz ist namensgebend („Seamless“ = nahtlos) und gilt als deutlich sicherer für die Anwendung am Menschen. Ein erstes konkretes Ziel der Kooperation ist die Bekämpfung von genetisch bedingtem Hörverlust.

Die Köpfe: Ein Team auf Expansionskurs

Hinter diesem technologischen Durchbruch steht kein anonymes Labor, sondern ein jahrelang eingespieltes Gründerteam aus der TUD. Den wissenschaftlichen Nukleus bildete die Forschungsgruppe von Prof. Frank Buchholz (Professor für Medizinische Systembiologie). Zusammen mit ihm trieben vor allem Dr. Felix Lansing, der heute als Chief Scientific Officer (CSO) die technologische Vision verantwortet, und Dr. Anne-Kristin Heninger (Head of Operations) die Entwicklung zur Marktreife voran. Komplettiert wurde das Gründungsteam durch Dr. Teresa Rojo Romanos und Dr. Maciej Paszkowski-Rogacz.

Dass Seamless Therapeutics den globalen Durchbruch ernst meint, zeigt auch eine strategische Personalie aus dem April 2024: Um die Brücke in den entscheidenden US-Markt zu schlagen, holte man den Branchenveteranen Dr. Albert Seymour als neuen CEO an Bord. Während Seymour die internationale Skalierung vorantreibt, sichern die Gründer weiterhin die technologische DNA des Unternehmens. „Die Zusammenarbeit mit Eli Lilly ist eine Bestätigung für unsere Gen-Editierungsplattform und ihr krankheitsmodifizierendes Potenzial“, erklärt Prof. Buchholz.

Der Standort: Wie aus Forschung Business wird

Der Erfolg fällt nicht vom Himmel, sondern ist das Ergebnis eines funktionierenden Transfer-Ökosystems. Das Startup wurde seit den frühen Phasen intensiv unterstützt durch TUD|excite, das Excellence Center for Innovation der TU Dresden, sowie durch SaxoCell, das sächsische Zukunftscluster für Präzisionstherapie. Prof. Ursula M. Staudinger, Rektorin der TUD, sieht in dem Deal eine Blaupause für den deutschen Innovationsstandort: „Das Investitionsvolumen unterstreicht eindrucksvoll das Potenzial dieser Technologie [...] Zugleich zeigt dieser Meilenstein, wie konsequent und erfolgreich die TUD den Transfergedanken lebt.“

Für Seamless Therapeutics beginnt nun die Arbeit, die rekombinase-basierte Technologie gemeinsam mit Eli Lilly durch die anspruchsvollen Phasen der Medikamentenentwicklung zu bringen – mit einem Team, das wissenschaftliche Exzellenz nun mit internationaler Management-Erfahrung verbindet.

Neues Venture Studio und 30-Mio.-Fonds für Europas Sicherheitstechnologien

Ein Konsortium aus Beratung, Venture Building und Kapitalmanagement startet eine neue Initiative für Technologien im Bereich „Resilience & Defence“. PwC Deutschland, Bridgemaker und Segenia Capital haben am 12. Februar den Launch eines gemeinsamen Venture Studios bekannt gegeben. Die Allianz positioniert sich als „System-Integrator“, um die Lücke zwischen universitärer Forschung und marktfähigen Produkten im Sicherheitssektor zu schließen.

Der Markt für Sicherheitstechnologie und den Schutz kritischer Infrastrukturen (KRITIS) wandelt sich von einer Nische zum zentralen Fokus der europäischen Innovationspolitik. Mit dem neuen Venture Studio reagieren die Initiatoren auf die geopolitische Notwendigkeit, technologische Souveränität in Europa zu stärken.

Für Gründer*innen im DeepTech-Bereich eröffnet sich damit eine Alternative zum klassischen Venture Capital (VC). Während normale VCs oft erst investieren, wenn ein Produkt Marktumsätze zeigt („Product-Market-Fit“), setzt diese Initiative früher an. Sie adressiert spezifisch die hohen Hürden im Defence-Sektor – wie langwierige staatliche Beschaffungsprozesse und komplexe Regulierung.

Smart Money statt nur Kapital: Der „System-Integrator“-Ansatz

Das Kernproblem vieler europäischer DeepTech-Start-ups ist die Skalierung von der reinen Forschung (Technology Readiness Level 1) hin zur industriellen Anwendung (Level 6+). Während Milliarden-Töpfe wie der NATO Innovation Fund oft erst in Wachstumsphasen greifen, fehlt es häufig an Kapital für die „schmutzige Phase“ des Prototypenbaus („Valley of Death“).

Das Konsortium tritt hier nicht als reiner Geldgeber auf, sondern bündelt drei Disziplinen, um Dual-Use-Technologien (zivile und militärische Nutzbarkeit) schneller zur Marktreife zu bringen:

  1. Regulatorik & Marktzugang (PwC Deutschland): Unterstützung bei der Navigation durch behördliche Anforderungen („Vergaberechts-Compliance“).
  2. Company Building (Bridgemaker): Operative „Execution Power“ beim Aufbau der Ventures – von der Hardware bis zur Software.
  3. Kapital (Segenia Capital): Professionelles Fondsmanagement für die Frühphase.

Für Gründer*innen wirkt dieses Setup wie ein Qualitäts-Filter: Wer das Studio durchläuft, gilt für spätere Series-A-Investoren als „vorgeprüft“ und regulatorisch abgesichert.

Bekannte Gesichter aus dem Ökosystem

Die Personalien hinter der Initiative signalisieren Branchenkennern, dass hier operatives Verständnis auf politisches Netzwerk trifft.

Federführend bei PwC agiert Florian Nöll. Als ehemaliger langjähriger Vorsitzender des Bundesverbands Deutsche Startups gilt er als einer der wichtigsten Brückenbauer zwischen der Berliner Politik und der Gründerszene. Seine Erfahrung ist essenziell, um junge Tech-Firmen durch die oft starren Beschaffungsprozesse der öffentlichen Hand zu navigieren.

Auf der operativen Seite bringt Henrike Luszick (CEO Bridgemaker) einen Track Record ein, der über reine Software-Modelle hinausgeht. Mit Ventures wie Nestor (einem Joint Venture für mobile Überwachungssysteme mit KI-Analyse) hat der Company Builder bereits bewiesen, dass er Hardware-Themen im Sicherheitsbereich erfolgreich am Markt platzieren kann.

30-Millionen-Euro-Fonds & der „Dual-Use“-Hebel

Parallel zum operativen Studio-Betrieb wird ein Venture Fonds mit einem Zielvolumen von 30 Millionen Euro aufgelegt. Segenia Capital, als bei der BaFin registrierter AIFM-Manager, übernimmt die Verwaltung. Die im Vergleich zu Mega-Fonds überschaubare Summe unterstreicht den Fokus auf die Pre-Seed- und Seed-Phase (Tickets ca. 500k – 1,5 Mio. EUR). Der Fonds operiert nach einem „Dual-Track-Ansatz“: Er finanziert sowohl interne Ausgründungen des Studios als auch externe Startups, die strategisch ins Portfolio passen.

Dass München als einer der zentralen Standorte gewählt wurde, ist strategisch kein Zufall. Die bayerische Landeshauptstadt hat sich – getrieben durch die TU München und Einhörner wie Quantum Systems – zum europäischen Hub für DefenceTech entwickelt.

Für Gründer*innen ist zudem der strategische Fokus auf Dual-Use entscheidend. Technologien, die primär für Resilienz und den Schutz kritischer Infrastrukturen entwickelt werden, aber auch militärisch nutzbar sind, umschiffen die strengen ESG-Hürden vieler institutioneller Investoren. Dies öffnet Kapitalquellen, die reinen Rüstungs-Start-ups oft verschlossen bleiben.

Einordnung: Reality Check – Hürden bleiben bestehen

Trotz der prominenten Unterstützung und der Marktlogik müssen interessierte Gründer*innen genau hinsehen. Venture-Studio-Modelle stehen oft in der Kritik, durch hohe Service-Anteile für das operative „Building“ die „Cap Table“ (Gesellschafterstruktur) frühzeitig zu verwässern. Wenn Studio und Fonds signifikante Anteile halten, bleibt Gründer*innen oft weniger Equity, was Folgerunden mit externen VCs erschweren kann („Skin in the Game“-Debatte).

Zudem sind 30 Millionen Euro im kapitalintensiven Hardware-Sektor schnell aufgebraucht – das Risiko einer Finanzierungslücke nach der Seed-Phase bleibt. Die größte Unbekannte ist jedoch der Kunde Staat: Auch mit PwC im Rücken gelten für Start-ups weiterhin die strengen Vergaberechte der öffentlichen Hand. Ob das Studio diese „Paperwork Barrier“ tatsächlich signifikant verkürzen kann, muss die Praxis erst noch zeigen.

Key Facts

  • Initiatoren: PwC Deutschland, Bridgemaker, Segenia Capital
  • Marktpositionierung: Early-Stage „System-Integrator“ (Kapital + Regulatorik + Building)
  • Fokus: Resilience, Defence Technology, KRITIS, Dual-Use
  • Finanzierung: Fonds mit 30 Mio. EUR Zielvolumen (Pre-Seed/Seed Fokus)
  • Investitionsstrategie: Neugründungen (Inkubation) und externe Direktinvestments
  • Standorte: Berlin, Frankfurt am Main, München

GeneralMind: 12 Mio. Dollar Investment nur 6 Monate nach Gründung

Das Berliner KI-Start-up GeneralMind entwickelt ein sog. autonomes AI System of Action, das wiederkehrende, komplexe Arbeitsschritte entlang von Waren- und Zahlungsflüssen automatisiert.

GeneralMind, ein „KI System of Actionˮ zur Automatisierung von digitaler Zettelwirtschaft, unstrukturierter Koordination sowie ineffizienter manueller Prozesse entlang der gesamten Lieferkette, gibt heute den Abschluss seiner Eigenkapitalfinanzierung in Höhe von 12 Millionen US-Dollar bekannt. Die Runde ist eine der größten bekannten europäischen Pre-Seed Runden der letzten Jahre und wurde weniger als sechs Monate nach der Aufnahme der Geschäftstätigkeit des Unternehmens abgeschlossen. GeneralMind will die Mittel verwenden, um die Skalierung seiner Technologie in Europa voranzutreiben.

Angeführt wurde die Finanzierungsrunde von Lakestar, Leo Capital, Lucid Capital, Heliad, BOOOM, mit Partizipierung von etablierten Angel-Investoren wie Alexander Kudlich, Jens Urbaniak, Samir Sood und Vishal Lugani.

GeneralMind wurde in Berlin vom Gründerteam um die Razor Group gemeinsam mit führenden Technologen aus dem Silicon Valley gegründet: Tushar Ahluwalia Shrestha Chowdhury, Dr. Oliver Dlugosch, Lennart von Hardenberg, Nishrit Shrivastava und Sergiu Șoima. Neben dem Hauptsitz in Berlin betreibt das Unternehmen einen weiteren Standort in Bangalore.

GeneralMind – das „AI System of Action“

Unternehmen arbeiten heute mit sogenannten Systems of Record SoR, zum Beispiel ERP-Systemen, um die Komplexität von Lieferketten zu bewältigen. Trotz dieser Systeme findet ein Großteil der operativen Arbeit weiterhin in E-Mail-Posteingängen und Spreadsheets statt: Teams müssen unstrukturierte Kommunikation und Koordination, Übergaben, Rückfragen und Ausnahmen manuell zusammenführen, nachhalten und in Systeme übertragen. Oft fehlt dabei klare Nachverfolgbarkeit, es entstehen Medienbrüche und die Fehleranfälligkeit ist hoch, obwohl genau diese Arbeit entscheidend ist, um die Lieferkette zuverlässig am Laufen zu halten.

GeneralMind entwickelt das „AI System of Action“ (SoA), um genau diese manuelle, repetitive Arbeit sowie unstrukturierte Koordination entlang der Lieferkette end-to-end zu übernehmen, als operative KI-Ebene über bestehenden Systemen, menschenüberwacht und bei Bedarf mit Freigabe.

KI-Autopilot für operative Prozesse mit menschlicher Fähigkeit

Der KI-Autopilot von GeneralMind übernimmt die „digitale Zettelwirtschaft" entlang komplexer Lieferketten, indem er automatisiert manuelle, repetitive Abläufe zwischen E-Mail, Excel und ERP-Systemen autonom ausführt. Eingehende Aufgaben (oft per E-Mail) werden erfasst, analysiert und anschließend end-to-end ausgeführt. Besonders dort, wo viele kleinteilige Aufgaben zuverlässig abgearbeitet, Abstimmungen sauber nachgehalten, Termine und Fristen gesichert und zahlreiche interne und externe Stakeholder entlang des Prozesses koordiniert werden müssen. Zum Beispiel in Beschaffung, Vertrieb oder der Rechnungsbearbeitung.

Diese „digitale Zettelwirtschaft“ kostet global agierende Unternehmen entlang ihrer Lieferketten teilweise Umsätze in Milliardenhöhe. Ware bleibt liegen, Entscheidungen verzögern sich, Aufgaben gehen im Tagesgeschäft unter.

„Unternehmen wissen oft genau, wo es hakt, scheitern aber an der operativen Umsetzung“, sagt Tushar Ahluwalia, Gründer und CEO von GeneralMind. „Ich habe im E-Commerce immer wieder gesehen, wie digitale Zettelwirtschaft, ineffiziente manuelle Prozesse und schmerzhafte Stakeholder-Koordination zwischen unstrukturierter Kommunikation und ERP-Systemen enorme Ineffizienzen in großen Unternehmen erzeugen. Genau dieses Problem lösen wir mit GeneralMind. Unsere KI übernimmt diese Prozesse end-to-end; kein Copilot, sondern mit Autopilot-Funktionalität, die von Menschen überwacht und bei Bedarf freigegeben wird“, ergänzt er.

Vom Labor zur Großindustrie: MicroHarvest startet Bau einer 15.000-Tonnen-Anlage

Das 2021 von Katelijne Bekers, Jonathan Roberz und Dr. Luísa Cruz gegründete Hamburger BioTech MicroHarvest vollzieht den Schritt vom Labor in die industrielle Massenproduktion. Im Chemiepark Leuna entsteht eine kommerzielle Großanlage mit einer Jahreskapazität von 15.000 Tonnen.

Der Hamburger Proteinhersteller MicroHarvest verlässt den Pilotmaßstab und beginnt mit der industriellen Umsetzung seiner Fermentationstechnologie. Wie das Unternehmen am 12. Februar bekannt gab, fiel die Standortwahl für die erste kommerzielle Großanlage auf den Chemiepark Leuna in Sachsen-Anhalt.

Rapider Aufstieg: Von der Gründung zum Anlagenbau

Das Tempo, das MicroHarvest vorlegt, ist im Deep-Tech-Bereich ungewöhnlich hoch. Gegründet 2021 von Katelijne Bekers (CEO), Jonathan Roberz (COO) und Dr. Luísa Cruz (CTO) in Hamburg, gelang dem Gründer-Trio binnen weniger Jahre gelang der Sprung von der Verfahrensentwicklung zur Planung einer Großanlage, deren Produktionsstart bereits in rund zwei Jahren vorgesehen ist.

Technologie: Biomasse-Fermentation in Rekordzeit

Kern des Erfolgs ist ein proprietäres Verfahren der Biomasse-Fermentation. Anders als bei der Präzisionsfermentation werden hier die Mikroorganismen selbst zum Produkt: Bakterien vermehren sich exponentiell und werden zu sogenanntem Single Cell Protein (SCP) verarbeitet. Der technologische USP liegt in der Geschwindigkeit: Vom Rohstoff bis zum fertigen Protein vergehen laut MicroHarvest nur 24 Stunden. Das Verfahren gilt als eines der effizientesten weltweit und benötigt nur einen Bruchteil der Fläche und des Wassers konventioneller Proteinquellen.

Validierung durch Top-Investoren und Awards

Dass das Scale-up nun eine Investition im mittleren zweistelligen Millionenbereich stemmen kann, ist auch das Resultat einer soliden Finanzierungsstrategie. Bereits 2022 sicherte sich MicroHarvest in einer Series-A-Runde Kapital, angeführt von FoodTech-VCs wie Astanor Ventures und FoodLabs. Für den Bau in Leuna kommt nun ein Zuwendungsbescheid über knapp 5,5 Millionen Euro aus der Bundesförderung für Energie- und Ressourceneffizienz hinzu.

Standortentscheidung und Marktstrategie

In Leuna sollen rund 25 direkte Arbeitsplätze entstehen. Die Entscheidung für den Standort fiel nach der Prüfung von rund 40 Optionen in Europa. Ausschlaggebend waren die industrielle Infrastruktur und die Nähe zu regionalen Rohstoffen wie Melasse, die kurze Transportwege ermöglichen.

„Wir bauen kein Pilotprojekt, sondern eine Produktionsinfrastruktur für relevante Mengen. Leuna bietet dafür genau das richtige Umfeld: bestehende Industrie, verlässliche Utilities und ein regionales Agrar- und Verarbeitungsnetzwerk“, betont Co-Founder Jonathan Roberz.

Marktseitig ist der Boden bereitet: MicroHarvest zielt zunächst auf den B2B-Markt für Tiernahrung und Aquakultur und konnte bereits Produkteinführungen mit Partnern wie VEGDOG und THE PACK realisieren. Perspektivisch arbeitet das Unternehmen auch an Anwendungen für den Human-Food-Bereich.

Learnings für Gründer*innen

Der Case MicroHarvest zeigt exemplarisch, dass für Hardware-Start-ups die Standortwahl keine reine Immobilienthematik ist. Die Anbindung an bestehende Ökosysteme – hier die Stoffströme und Utilities eines etablierten Chemieparks – kann den entscheidenden Geschwindigkeitsvorteil beim Roll-out liefern. Zudem beweist die Finanzierungsstruktur, wie wichtig der intelligente Mix aus Venture Capital und staatlicher Förderung (hier für Capex) ist, um kapitalintensive Industrieprojekte zu realisieren.

Gründungs-Optimismus 2026: Trotz Gegenwind auf Wachstumskurs?

Während die makroökonomischen Vorzeichen auf Abkühlung stehen – die OECD prognostizierte zuletzt eine Verlangsamung des globalen Wirtschaftswachstums um rund zehn Prozent in den kommenden Jahren – zeichnet sich in der deutschen Gründer*innenszene ein überraschendes Gegenbild ab: Ein neuer Optimismus macht sich breit.

Laut dem aktuellen „Work Change Special Report“ von LinkedIn (befragt wurden über 1000 Unternehmensführungen und Fachkräfte in Deutschland) blicken 55 Prozent der deutschen Kleinunternehmer*innen zuversichtlich auf das Wachstum in den kommenden zwölf Monaten. Dieser Wert sticht besonders hervor, da kleine Unternehmen (KMU) rund 90 Prozent aller Unternehmen ausmachen und für 70 Prozent des globalen BIP verantwortlich sind. Wenn dieser Sektor trotzt, hat das Signalkraft.

Damit zeigt der Report eine klare Trendwende: Die wirtschaftliche Unsicherheit führt nicht zur Schockstarre, sondern zu mehr Eigeninitiative. Die Zahl der LinkedIn-Mitglieder in Deutschland, die ihrem Profil den Titel „Founder“ hinzufügen, ist im Jahresvergleich um 61 Prozent gestiegen. Ein Indiz dafür, dass sich der Begriff des Unternehmertums wandelt – weg von rein formalen Strukturen, hin zu einer agilen Founder-Economy, die oft digital startet, bevor sie im Handelsregister landet.

KI als der große „Gleichmacher“ für kleine Teams

Was treibt diesen Mut zur Selbständigkeit in einem schwierigen Umfeld? Die Daten legen nahe, dass technologische Barrieren fallen. Künstliche Intelligenz (KI) fungiert hier als „Equalizer“, der kleinen Teams Wettbewerbschancen eröffnet, die früher Konzernen vorbehalten waren. Das generative KI-Potenzial wird global auf eine Wertschöpfung von bis zu 6,6 Billionen US-Dollar geschätzt – und kleine Unternehmen wollen sich ihren Teil davon sichern.

  • Wettbewerbsvorteil: 53 Prozent der Geschäftsführer*innen kleiner Unternehmen in Deutschland geben an, dass KI entscheidend für das Wachstum ihres Unternehmens ist.
  • Gründungsmotor: Fast 30 Prozent der Fachkräfte in Deutschland sagen, dass erst die Verfügbarkeit von KI sie dazu ermutigt hat, den Schritt in die Selbständigkeit zu wagen.
  • Hohe Adaption: Während in der breiten Wirtschaft die Implementierung oft schleppend verläuft, sind die auf LinkedIn aktiven Kleinunternehmen bereits deutlich weiter: Hier geben 84 Prozent an, KI bereits in irgendeiner Form zu nutzen.

Die Renaissance der Soft Skills: Vertrauen als Differenzierungsmerkmal

Der Report warnt jedoch davor, sich allein auf Technologie zu verlassen. In einer Ära, in der KI-generierte Inhalte exponentiell zunehmen, wird der Human Factor zum entscheidenden Wettbewerbsvorteil.

Wenn Aufmerksamkeit ein knappes Gut ist, wird Vertrauen zur härtesten Währung.

  • Netzwerkeffekte: 69 Prozent der Marketingverantwortlichen in kleinen Unternehmen bestätigen, dass Käufer*innen Informationen heute primär über ihre Netzwerke validieren, bevor sie Entscheidungen treffen.
  • Markenaufbau: Für 71 Prozent der deutschen Kleinunternehmer*innen ist der Aufbau einer starken Marke der Schlüssel, um ihre 3-bis-5-Jahres-Ziele zu erreichen.
  • Authentizität: 72 Prozent setzen verstärkt auf „Community-Driven-Content“ – also Stimmen von Mitarbeitern und Experten –, da bloße Markenbotschaften an Wirkung verlieren.

Fazit für Gründer*innen

Die Strategie für 2026 lautet Hybridität: Erfolgreiche Gründer*innen nutzen KI für Geschwindigkeit und Skalierung im Hintergrund, investieren aber gleichzeitig massiv in den Aufbau persönlicher Netzwerke und einer glaubwürdigen Marke. Oder wie es die Daten zeigen: 65 Prozent der deutschen Kleinunternehmer*innen sehen das aktive Netzwerken inzwischen als essenziellen Schlüssel für langfristiges Wachstum an.

Wer heute gründet, tut dies mit mächtigeren Werkzeugen als je zuvor – muss aber mehr denn je beweisen, dass hinter der Technologie echte Menschen stehen.