Trump, Tech, KI und Krypto

Autor: Omar Garriott
44 likes

Welche Entwicklungen sind unter der zweiten Präsidentschaft von Donald Trump zu erwarten? Kommentar von Omar Garriott, Exekutivdirektor des Batten Institute an der Darden School of Business der University of Virginia.

In Zeiten rasanten politischen und technologischen Wandels sind zwei Dinge klar: Erstens bringt eine zweite Präsidentschaft von Donald Trump ein neues Maß an Unsicherheit für die Innovationswirtschaft mit sich. Zweitens finden Innovatoren in dieser Unsicherheit wie immer Chancen.

Was könnte die neue Administration für die Innovationswirtschaft bedeuten, insbesondere für die Technologie-, Künstliche-Intelligenz- und Kryptosektoren? Omar Garriott, Exekutivdirektor des Batten Institute for Entrepreneurship, Innovation and Technology an der Darden School of Business, geht der Frage nach.

Technologie

Der technologieintensive NASDAQ Composite stieg am Tag nach Trumps Wahl um drei % auf ein Allzeithoch. War dies ein „Sicherheitsaufschwung“ nach der Wahl oder eine tatsächliche Bestätigung des Ergebnisses? Wahrscheinlich beides.

Die CEOs der Tech-Unternehmenswelt beeilten sich, Trump – auf der Plattform X des Großspenders Elon Musk – zu applaudieren, in einer Mischung aus aufrichtigen Glückwünschen und aufgeklärtem Eigeninteresse.

im Cook (Apple), Jeff Bezos (Amazon), Sam Altman (OpenAI), Satya Nadella (Microsoft) und andere Schwergewichte schlossen sich dem an. „Wir befinden uns in einem goldenen Zeitalter der Innovation und sind entschlossen, mit seiner Regierung zusammenzuarbeiten, um die Vorteile allen zugänglich zu machen“, sagte Alphabet-CEO Sundar Pichai in einem Post, der die Meinung anderer Spitzenkräfte der großen Technologieunternehmen widerspiegelte.

Die Logik hinter diesem Herdenverhalten ist klar: Früh Position beziehen, um einen Platz am Tisch der Technologiepolitik zu sichern oder staatlicher Prüfung zu entgehen. Aber ein öffentlicher Glückwunsch, um sich einzuschmeicheln, ist nicht unbedingt dasselbe wie uneingeschränkte Unterstützung.

Wenn Trumps Agenda Gestalt annimmt, wird er eine rote Linie für diese Führungskräfte überschreiten? Werden Kunden und/oder Mitarbeiter von ihnen Rechenschaft verlangen, wie dies bei großen Technologieunternehmen der Fall war, die während seiner ersten Amtszeit Verträge mit der Einwanderungs- und Zollbehörde hatten?

Trump verachtet offen Regulierung und Eingriffe in den privaten Sektor. In Silicon Valley entsteht das Gefühl, dass seine Administration M&A-freundlicher sein wird und weniger geneigt als die von Präsident Biden, Big Tech unter die Lupe zu nehmen (Google, mit dem er sich in seiner ersten Amtszeit anlegte, könnte eine bemerkenswerte Ausnahme sein). Wahrscheinlich werden wir eine veränderte Haltung der Securities and Exchange Commission und der Federal Trade Commission gegenüber der Technologie erleben (Lina Khan und Mark Zuckerberg raus, TikTok und Bitcoin rein). Doch der künftige Präsident neigt dazu, in einem „Was-hast-du-mir-zuletzt-gebracht“-Rahmen zu agieren, was das Vorhersagespiel riskant macht.

Wir sollten auch genau verfolgen, wie die Administration mit H1-B-Visa umgeht. H1-Bs sind entscheidend dafür, wie amerikanische Unternehmen Fähigkeiten in technischen Bereichen aufgebaut haben, die stark nachgefragt, aber knapp sind. Werden H1-B-Inhaber von Massenabschiebungen betroffen sein? Wird Trump neue H1-Bs einschränken, während er sein Versprechen einlöst, die Grenzen zu schließen?

Künstliche Intelligenz (KI)

Trumps Haltung zur KI ist eine Art Blackbox, obwohl sein neuer bester Freund Elon Musk oft Alarm geschlagen und vorhergesagt hat, dass die Singularität – die Aussicht, dass Fortschritte in der Informatik die menschliche Kapazität erreichen oder sogar übertreffen könnten – unmittelbar bevorsteht.

Es wird jedoch praktisch unmöglich sein, den KI-Geist wieder in die (schwarze) Kiste zu sperren. Raj Venkatesan, Professor an der Darden School of Business und Wissenschaftler im Bereich Tech-Marketing, merkt an: „Wachstum und Investitionen in KI sind eine Frage der Wettbewerbsfähigkeit für die US-Regierung. Es wird notwendig sein, nationale Sicherheitsfragen mit individuellen Datenschutz-, Vorurteils- und Desinformationsproblemen in Einklang zu bringen. Es wird ein herausfordernder Kompromiss für jede Regierung.“

Dennie Kim, ebenfalls Darden-Professor und Experte für künstliche Intelligenz und Web 3, zeigt sich angesichts dieses Kompromisses „darüber besorgt, dass die Regierung mit ihrer Anti-Regulierungs-Haltung zu weit geht“. „KI-Regulierung betrifft nicht die technischen Aspekte, sondern eher die potenziellen und sehr präsenten menschlichen Auswirkungen. Wir regulieren viele Dinge, die potenziell Menschen schaden könnten, und die USA müssen die globale Diskussion darüber führen“, fügt er hinzu. „Trump sollte nicht einfach einen Laissez-faire-Ansatz verfolgen. Ziehen Sie Grenzen, damit wir diskutieren, debattieren und uns als Land besser über die sehr realen Probleme informieren können, die durch die Unsicherheit rund um diese Technologie entstehen.“

Kryptowährungen

Nach einer Zeit der Versenkung wird Krypto dank Trumps öffentlicher Unterstützung wieder ernst genommen. Polymarket, der weltweit größte Prognosemarkt, schätzt dass Bitcoin im Jahr 2024 mit 100 %iger Wahrscheinlichkeit auf 100.000 $ steigen werde (in der Woche vor der Wahl waren es nur 17 %). Die Wahrscheinlichkeit, dass Trump in seinen ersten 100 Tagen eine nationale Bitcoin-Reserve schaffen wird, liege bei über 1:4.

„Die Trump-Administration wird allgemein, zumindest kurzfristig, als massiver Sieg für Befürworter der Blockchain-Technologie und der Kryptowährungen angesehen“, so Kim. „Was aber möglicherweise noch wichtiger ist: Republikaner sind im Kongress führend dafür eingetreten, dass die USA dem Wachstum dieses Teils der Industrie wohlwollender gegenüberstehen sollten, und die Ergebnisse im Repräsentantenhaus und im Senat werden dies wahrscheinlich noch stärker beeinflussen als der Präsident. Da die rasante Entwicklung der KI anhält, ist es von entscheidender Bedeutung, dass parallel dazu Technologien wie Blockchain entwickelt werden, die als wichtige Ergänzungen und Schutzmaßnahmen für generative KI dienen können.“

Nox Mobility: 2 Mio. EUR für den "Flugzeug-Killer" auf Schienen

Das Berliner Start-up Nox Mobility will mit privaten Zimmern im Nachtzug europäische Kurzstreckenflüge ersetzen. Eine 2-Millionen-Euro-Pre-Seed-Runde gibt erste Starthilfe. Doch der europäische Bahnmarkt ist ein hartes Pflaster für Gründende – erst 2024 scheiterte ein französischer Konkurrent mit exakt demselben Konzept. Eine Einordnung.

Es ist ein mutiges Versprechen in einem der am stärksten regulierten Märkte Europas: Das 2025 gegründete Mobilitäts-Start-up Nox Mobility will das europäische Nachtzug-Erlebnis revolutionieren. Dafür hat das Unternehmen nun eine Pre-Seed-Finanzierungsrunde in Höhe von 2 Millionen Euro abgeschlossen. Angeführt wird die Runde vom Frühphasen-Investor IBB Ventures. Mit an Bord sind zudem der italienische Investor Tommaso Lucca sowie Branchenköpfe wie HomeToGo-Mitgründer und CEO Dr. Patrick Andrae. Das frische Kapital soll primär in den Teamaufbau, die Vorbereitung der ersten Strecken für das Jahr 2027 sowie den Bau eines originalgetreuen Mockups der Zugkabinen fließen.

Rollendes Boutique-Hotel statt Abteilromantik

Während Nachtzüge aktuell zwar einen massiven Nachfrageboom erleben, ist der eigentliche Markt laut Nox Mobility zwischen 2001 und 2019 drastisch geschrumpft – von rund 1.200 wöchentlichen Verbindungen in Europa auf nur noch etwa 450. Nox will diese Lücke nun schließen und positioniert sich explizit nicht als klassisches Bahnunternehmen, sondern als direkte Alternative zum Kurzstreckenflug.

Der Clou: Das traditionelle Teilen von Schlafabteilen mit Fremden entfällt; stattdessen bekommt bei Nox Mobility jede(r) Reisende sein eigenes privates Zimmer mit Schlafplatz. Die Reise verbinde laut Nox die Zuverlässigkeit des Fliegens operativ mit dem Gefühl eines Boutique-Hotels. Abfahrten sollen abends an zentralen Bahnhöfen stattfinden, die Ankunft morgens direkt im Stadtzentrum – Flughafentransfers und Sicherheitskontrollen entfallen. Zielgruppe sind neben Freizeitreisenden vor allem Geschäftsreisende, für die eine Zugfahrt den frühen Abflug und eine zusätzliche Hotelübernachtung ersetzen soll. Preislich will Nox auf dem Niveau vergleichbarer Flugreisen agieren.

Das Gründerteam: Reichweite trifft auf operative Härte

Hinter dem Projekt steht ein Trio, das Branchenerfahrung, Skalierungswissen und bereits jetzt eine enorme Zielgruppe vereint:

Artur Hasselbach bringt als Mitgründer des Payment-Fintechs orderbird – das für über 140 Millionen Euro von Nexi übernommen wurde – ausgewiesene VC- und Tech-Erfahrung mit.

Janek Smalla kennt das harte operative Mobilitätsgeschäft aus seinen vorherigen Stationen bei FlixTrain und dem Mobilitätsanbieter Bolt.

Thibault Constant ist in der Nische ein Star: Mit "Simply Railway" hat er eine der größten Eisenbahn-Communities Europas mit über 600.000 Abonnenten aufgebaut. Er kennt die Probleme der Fahrgäste aus unzähligen Gesprächen und Zugfahrten aus erster Hand.

Die Gründer geben sich selbstbewusst und verkünden, das Rollmaterial für die Züge bereits gesichert zu haben.

Unsere Markteinordnung

Für uns stellt sich jedoch eine zentrale Frage: Kann man mit 2 Millionen Euro Pre-Seed-Kapital tatsächlich einen hochkomplexen Bahn-Infrastrukturbetrieb aufbauen? Die Antwort lautet: Nein, es ist lediglich das Ticket, um überhaupt an den Start zu gehen. Der Bau eines Mockups in Originalgröße ist das eine – die Finanzierung und Zulassung echter Züge für den Betrieb ab 2027 kostet schnell dreistellige Millionenbeträge.

Besonders kritisch wird das Vorhaben mit Blick auf die Konkurrenz und die jüngere europäische Start-up-Historie. Die Idee eines rollenden Hotels mit ausschließlich privaten Abteilen ist nicht neu. Das französische Start-up Midnight Trains startete 2020 mit extrem viel PR und fast exakt demselben Geschäftsmodell. Im Juni 2024 musste das Projekt jedoch Insolvenz anmelden. Die Gründer scheiterten daran, dass europäische VCs und Banken das massive finanzielle Risiko nicht tragen wollten und die europäische Schieneninfrastruktur historisch stark auf staatliche Monopolisten zugeschnitten ist, was neue Player systematisch benachteiligt.

Gleichzeitig schläft der etablierte Markt nicht: Die Österreichischen Bundesbahnen (ÖBB) dominieren mit ihrem Nightjet das Geschäft und haben mit ihren neuen „Mini Cabins“ (Schlafkapseln für Einzelpersonen) bereits auf den Wunsch nach mehr Privatsphäre reagiert.

Eine hochriskante Kapitalwette

Nox Mobility löst zweifellos ein echtes Problem und trifft den Nerv der Zeit in Sachen nachhaltiger Mobilität. Das Team aus Hasselbach, Smalla und Constant ist hervorragend aufgestellt und die Tatsache, dass sie nach eigenen Angaben bereits Züge gesichert haben, könnte der entscheidende Wettbewerbsvorteil gegenüber gescheiterten Projekten wie Midnight Trains sein.

Dennoch bleibt Nox Mobility eine hochriskante Kapitalwette. Die spannende Bewährungsprobe für das Berliner Start-up beginnt nicht erst 2027 auf den Schienen, sondern bereits in der nächsten Finanzierungsrunde: Dann wird sich zeigen, ob das Team Investor*innen davon überzeugen kann, die enormen Summen für den realen Bahnbetrieb aufzubringen – oder ob der Traum vom Start-up-Nachtzug im Trassendschungel Europas stecken bleibt.

Schluss mit Kaskodenken: Was der neue Innovationsrat Gründer*innen bringt

Pünktlich zur Hannover Messe formiert sich ein neues Schwergewicht in der deutschen Technologiepolitik: Acht Expertinnen und Experten haben den ehrenamtlichen „Innovationsrat für Deutschland“ ins Leben gerufen. Getragen von der VDI-Initiative „Zukunft Deutschland 2050“ und der Gesellschaft für Informatik (GI) bündelt das Gremium die Stimmen von über 160.000 Ingenieur*innen und Informatiker*innen.

Die Diagnose des Rats fällt drastisch aus: Deutschland verliere im globalen Wettbewerb an Verbindlichkeit und Umsetzungsgeschwindigkeit. Für die Gründer*ionnenszene birgt das Manifest vielversprechende Forderungen – es stellt sich jedoch auch die Frage, ob ein weiteres Gremium die strukturelle Risikoaversion des Standorts durchbrechen kann.

Das Kernproblem: Erfunden in Deutschland, skaliert im Ausland?

Das zentrale Narrativ des Innovationsrats trifft einen wunden Punkt der heimischen Start-up-Ökonomie: Es dürfe nicht länger passieren, dass Schlüsseltechnologien zwar in deutschen Forschungslaboren erfunden, aber aufgrund fehlenden Kapitals oder restriktiver Regulierung im Ausland skaliert werden. Der Rat fordert in seinen „5 Impulsen“ eine fundamentale Neuausrichtung:

  • Schluss mit dem Legislaturperioden-Takt: Innovationspolitik muss langfristig und faktenbasiert gedacht werden, nicht in kurzatmigen Wahlzyklen.
  • Regulierung als Enabler statt als Bremse: Die Expert*innen fordern den Abbau von europäischem „Goldplating“ (der innovationsfeindlichen Übererfüllung von EU-Normen durch nationale Gesetze) und die Schaffung echter Experimentierräume und Reallabore.
  • Mut statt „Kaskodenken“: Anstatt risikoscheu zu agieren, müssen strategische Investitionen in Schlüsseltechnologien fließen. Die Rahmenbedingungen für Scale-ups müssen massiv verbessert werden, um industrielles Skalieren im eigenen Land zu ermöglichen.

Die Köpfe hinter dem Innovationsrat für Deutschland

Die Zusammensetzung des Gremiums unterstreicht den Anspruch, Technologie, Recht und Wirtschaft zusammenzudenken:

  • Prof. Dr. Lutz Eckstein: VDI-Präsident und Experte für automatisiertes Fahren an der RWTH Aachen.
  • Prof. Dr. Veronika Grimm: Professorin an der TU Nürnberg und als „Wirtschaftsweise“ eine der prägendsten Stimmen der Energiepolitik.
  • Prof. Dietmar Harhoff, PhD: Direktor am Max-Planck-Institut für Innovation und Wettbewerb sowie langjähriger EFI-Vorsitzender.
  • Prof. Dr. Jürgen Kühling: Regulierungs- und Wettbewerbsexperte sowie ehemaliger Vorsitzender der Monopolkommission.
  • Dr. Anne Lamp: Gründerin und Pionierin im Bereich Circular Economy.
  • Dr. Melanie Maas-Brunner: Industrielle Forschungsexpertin, ehemalige BASF-Vorständin und designierte Präsidentin des Stifterverbands.
  • Adrian Willig: Direktor des VDI mit Fokus auf Ingenieurkompetenzen und Technikstandort-Förderung.
  • Prof. Dr. Martin Wolf: Präsident der Gesellschaft für Informatik und Experte für intelligente Produktionssysteme.

Im Start-up-Fokus: Dr. Anne Lamp und der harte Weg der Skalierung

Dass der Innovationsrat nicht nur aus der wissenschaftlichen Helikopterperspektive agiert, zeigt eine entscheidende Personalie: Dr. Anne Lamp sitzt am Tisch. Die CEO und Mitgründerin des Hamburger Start-ups traceless materials steht wie kaum eine andere für die Herausforderungen der industriellen Kreislaufwirtschaft.

Im Jahr 2020 ins Leben gerufen, hat traceless ein vollständig biobasiertes Granulat aus Agrar-Reststoffen entwickelt, das als Alternative zu Plastik dient und unter natürlichen Bedingungen in nur zwei bis neun Wochen kompostierbar ist. Lamp, 2022 mit dem Deutschen Gründerpreis ausgezeichnet und 2025 für den Deutschen Zukunftspreis nominiert, hat ihr Unternehmen erfolgreich aus dem Labor geholt. Mit der Realisierung einer groß angelegten Demonstrationsanlage hat das Start-up das für Hardware-Gründungen berüchtigte „Tal des Todes“ gemeistert. Mit der geplanten Industrieanlage soll die Kapazität künftig um ein Vielfaches gesteigert und das Material massentauglich gemacht werden. Lamps Vita verkörpert exakt das, was der Rat nun auf politischer Ebene einfordert: Die erfolgreiche Überführung nachhaltiger Technologien von der Erfindung in die marktfähige, industrielle Skalierung.

Unsere Einordnung: Ein weiteres Gremium oder echter Hebel?

Die entscheidende Frage für Gründer*innen und Start-ups bleibt: Bewirkt dieser Rat wirklich etwas? An technologiepolitischen Beiräten mangelt es der Bundesrepublik traditionell nicht. So sitzt mit Prof. Dietmar Harhoff bezeichnenderweise der langjährige Vorsitzende der bereits existierenden Expertenkommission Forschung und Innovation (EFI) der Bundesregierung ebenfalls in diesem neuen Gremium.

Dennoch hat der Innovationsrat zwei strategische Vorteile: Er ist explizit unabhängig von Parteien und Einzelinteressen der Wirtschaft und vereint mit dem VDI und der GI die geballte Umsetzungskompetenz der technischen Basis. Die Visionen sind ambitioniert – etwa die Forderung, vertrauenswürdige KI als „Trained in Germany“ zu einem neuen globalen Gütesiegel aufzubauen.

Für Deep-Tech- und Hardware-Start-ups wird der Rat jedoch nicht an der bloßen Anzahl seiner künftigen Stellungnahmen gemessen werden, sondern daran, ob seine Impulse tatsächlich in den Maschinenraum der Politik vordringen. Erst wenn das geforderte Kapital für die Wachstumsphase fließt und Genehmigungsverfahren radikal entschlackt werden, wird das „Kaskodenken“ wirklich der Vergangenheit angehören.

Synera sichert sich 35 Mio. Euro für die Revolution des Engineerings

Was einst als bionisches Forschungsprojekt begann, ist heute eine der vielversprechendsten europäischen DeepTech-Hoffnungen. Doch wie tragfähig ist die Vision vom „autonomen digitalen Ingenieur“ im stark regulierten Maschinenbau? Ein tieferer Blick auf Gründer, Markt und das Geschäftsmodell.

Die deutsche Industrie steht unter massivem Druck: Internationale Konkurrenz – insbesondere aus Asien –, chronischer Fachkräftemangel und die Notwendigkeit, Entwicklungszyklen drastisch zu verkürzen, zwingen zum Handeln. Generative künstliche Intelligenz (GenAI) gilt als Heilsbringer, doch in der Praxis verpuffen viele Initiativen. Nur etwa 41 Prozent der KI-Prototypen in der Fertigungsindustrie erreichen laut Branchenstudien den produktiven Einsatz. Die Konstruktions- und Entwicklungsabteilungen gelten als stark in Silos organisiert und bis heute schwer automatisierbar.

„Engineering ist das Rückgrat jedes Industrieunternehmens, gehört jedoch nach wie vor zu den am wenigsten digitalisierten und automatisierten Funktionen und war bis vor Kurzem für KI weitgehend unzugänglich“, bringt es Dr. Moritz Maier, Co-CEO von Synera, auf den Punkt.

Genau in diese Lücke stößt sein Unternehmen. Mit einer Series-B-Finanzierungsrunde über 35 Millionen Euro will das Bremer Startup nun international skalieren. Angeführt wird die Runde vom europäischen Wachstumsfonds Revaia, mit starker Beteiligung des UVC Partners Wachstumsfonds sowie Capgemini (über ISAI Cap Ventures). Auch die Bestandsinvestoren Spark Capital, BMW iVentures und Cherry Ventures ziehen wieder mit. Das Signal an den Markt ist deutlich: Engineering Automation wird zum nächsten großen Software-Schlachtfeld.

Von Kieselalgen zur KI-Plattform

Hinter Synera stehen die Gründer Moritz Maier, Daniel Siegel (beide Co-CEO) und Sebastian Möller (Managing Director). Die Ursprungsidee entstand am renommierten Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Gründer forschten dort im Bereich der Bionik und untersuchten die Leichtbaustrukturen von Kieselalgen, um deren evolutionäre Prinzipien auf technische Bauteile zu übertragen.

Aus „Evolutionary Light Structure Engineering“ wurde 2018 die Ausgründung ELISE. Zunächst lag der Fokus auf algorithmusbasiertem Design. Mit der Zeit erkannten die Gründer jedoch ein viel grundlegenderes Problem: Es fehlte nicht an Software für das eigentliche Design, sondern an einer Brücke, die die unzähligen Insellösungen (CAD, Simulation, Materialprüfung) im Engineering-Alltag verbindet. Dies führte zur Neuausrichtung und schließlich zur Umbenennung in Synera – einer Low-Code- und KI-Plattform für Connected Engineering.

Das Geschäftsmodell im Check

Synera betreibt ein klassisches B2B-Plattform-Modell. Anstatt etablierte Platzhirsche im Computer-Aided Design (CAD) zu verdrängen, positioniert sich Synera als übergeordnete Orchestrierungsschicht. Die Software klinkt sich in über 80 bestehende Tools ein.

  • Der Werttreiber: Nutzer*innen können komplexe Workflows (z. B. CAD-Modellierung → Simulation → Kostenkalkulation → Designanpassung) als Templates speichern. Das frische Kapital soll laut Moritz Maier nun eine Entwicklung beschleunigen, „bei der KI-Agenten als echte digitale Engineers agieren und komplexe Workflows entlang der gesamten Wertschöpfungskette autonom ausführen.“
  • Der Lock-in-Effekt: Wenn ein Industriekonzern seine Kernprozesse auf Synera automatisiert hat, ist die Plattform kaum noch auszutauschen. Die Wechselkosten für den Kunden sind enorm.
  • Die Herausforderungen: Das Modell ist technisch hochkomplex. Die ständige Pflege von über 80 API-Schnittstellen zu Drittanbietern bindet gewaltige Entwickler*innen-Ressourcen. Zudem erfordert der Vertrieb in klassische Hardware-Unternehmen lange Sales-Zyklen.

Zwischen RPA und Spezial-CAD

Wettbewerbsumfeld

Marktansatz

Syneras Differenzierung

Generatives Design (z. B. nTop, Altair)

Fokus auf die Erstellung hochkomplexer, gewichtsoptimierter Bauteile.

Synera generiert nicht nur das Design, sondern automatisiert den Prozess quer durch verschiedene externe Tools.

Klassische RPA (z. B. UiPath, Zapier)

Hervorragend für kaufmännische Prozesse (HR, CRM, Rechnungen).

Standard-RPA scheitert an den komplexen 3D-Geometrie- und Physikdaten des Engineerings.

PLM-Systeme (z. B. Siemens, Dassault)

Verwalten den gesamten Produktlebenszyklus und die Daten.

Synera setzt sich auf diese oft schwerfälligen Systeme, um die agilen Arbeitsschritte flexibler zu machen.

Kritische Einordnung: Vertraut der/die Ingenieur*in der KI?

Synera verweist auf eine Umsatzverdopplung im vergangenen Jahr und über 60 namhafte Kunden, darunter BMW, Airbus, NASA und Miele. Mit dem frischen Kapital steht die Expansion nach Asien, Europa und in die USA an. Dass dieser Wachstumskurs von den Investoren aktiv gestützt wird, betont Benjamin Erhart, General Partner bei UVC Partners: „Wir konnten erleben, wie Synera als zuverlässiger Partner die Transformation des Engineerings gestaltet.“

Doch der Weg zur breiten Durchdringung birgt auch Stolpersteine:

  1. Das Vertrauensproblem: „Agentic AI“ bedeutet, dass die Software eigenständig Entscheidungen trifft. In sicherheitskritischen Branchen (Luftfahrt, Automotive) herrschen jedoch strikte Compliance-Regeln. Bevor ein KI-Agent autonome Designänderungen an tragenden Bauteilen vornimmt, müssen massive Haftungsfragen geklärt sein.
  2. Die Pilot-Falle: Viele GenAI-Projekte scheitern auf dem Weg in die Produktion. Die Gefahr für Synera besteht darin, in Innovationsabteilungen stecken zu bleiben, während das operative Kerngeschäft aus Kostengründen an bewährten Methoden festhält.
  3. Die API-Abhängigkeit: Wer als Brückenbauer*in zwischen Dutzenden Software-Silos agiert, macht sich von den Anbietern abhängig. Sperrt ein großer CAD-Anbieter seine API, trifft dies Syneras Modell im Kern.

Fazit

Synera ist ein exzellentes Beispiel dafür, wie aus akademischer Grundlagenforschung ein hoch skalierbares DeepTech-Produkt werden kann. Der strategische Pivot vom reinen Design-Tool zur prozessübergreifenden Plattform zahlt sich durch die starke Series B nun aus. Gelingt es den Bremern, den eher konservativen globalen Maschinenbau davon zu überzeugen, dass KI-Agenten die menschlichen Ingenieur*innen nicht ersetzen, sondern befähigen, könnte Synera der entscheidende globale Standard im Connected Engineering werden.

Peak Quantum sichert sich 2,2 Mio. Euro für fehlerresistente Qubits

Peak Quantum holt 2,2 Mio. Euro für fehlerresistente Qubits. Wie das Münchner Spin-off mit EU-Förderung gegen die hochgerüstete Konkurrenz antritt.

München wächst weiter als Europas Quanten-Hauptstadt. Das Start-up Peak Quantum schließt seine Pre-Seed-Runde mit 2,2 Millionen Euro ab und positioniert sich im hart umkämpften Deep-Tech-Markt. Der Pitch der Gründer: Fehlerkorrektur direkt in der Hardware. Doch in einem extrem kapitalintensiven Umfeld reicht Geld allein nicht. Wie das Spin-off mit einem cleveren Infrastruktur-Schachzug gegen die hochgerüstete europäische Konkurrenz bestehen will.

Aus der Forschung in die Praxis

Im Jahr 2024 entstand Peak Quantum als Spin-off aus der Forschungsgruppe von Prof. Stefan Filipp am Walther-Meißner-Institut (WMI), das zur Bayerischen Akademie der Wissenschaften gehört. Das Gründungsteam deckt interdisziplinär die gesamte Wertschöpfungskette vom Chipdesign bis zur Systemintegration ab. Zu den Köpfen hinter der Unternehmung gehören Leon Koch (CEO), Alexander Schult (CFO), Dr. Thomas Luschmann (COO), Dr. Max Werninghaus (CSO), Ivan Tsitsilin (Head of Design), Kedar Honasoge (Head of Production) und Daniil Bazulin (Quantum Engineer). Unterstützt wird das junge Unternehmen durch wichtige Säulen des lokalen Ökosystems wie dem Munich Quantum Valley und der UnternehmerTUM.

„Hardware-First“ statt Software-Pflaster

Das aktuell größte Hindernis im Quantencomputing ist das sogenannte Rauschen – die enorme Fehleranfälligkeit der Recheneinheiten (Qubits). Während die Industrie bisher stark darauf setzte, schlicht die Anzahl physikalischer Qubits hochzuskalieren und Fehler nachträglich per Software zu korrigieren, wählt Peak Quantum einen grundlegend anderen Weg. Das Start-up entwickelt supraleitende Prozessoren, deren physikalische Architektur Fehler bereits auf der reinen Hardware-Ebene unterdrückt. Dieser integrierte Fehlerschutz soll die Komplexität des Gesamtsystems drastisch senken und die Entwicklung kommerziell nutzbarer Rechner massiv beschleunigen.

Das Geschäftsmodell & der EU-Infrastruktur-Hebel

Quanten-Hardware ist ein unfassbar teures Pflaster. Mit dem frischen Kapital von Investor*innen wie dem britischen Lead-Investor Cloudberry Ventures, United Founders oder QAI Ventures steigt die Gesamtfinanzierung von Peak Quantum auf gut fünf Millionen Euro. Für den Aufbau eigener Reinräume (CapEx) reicht das kaum. Der strategische Clou des Geschäftsmodells liegt daher in der europäischen Vernetzung: Peak Quantum bezieht öffentliche Fördermittel aus dem EU Chips Act und wurde ausgewählt, die im April 2026 startende Quantenchip-Pilotlinie SUPREME zu betreiben.

Ziel ist es, in Europa eine skalierbare Produktionsumgebung zu etablieren, die langfristig auch für externe Partner geöffnet werden soll. Ein Modell, das es Peak Quantum erlaubt, trotz einer frühen Finanzierungsphase hocheffizient an industrietauglichen Chips zu feilen.

Der Markt & die Konkurrenz

Doch der Markt verzeiht keine Verzögerungen, und München ist längst ein Haifischbecken der Quantentechnologie. Direkt vor der Haustür sitzen Schwergewichte:

  • IQM Quantum Computers: Der europäische Platzhirsch für supraleitende Quantencomputer (mit Hauptsitz in Finnland, aber großem Zentrum in München), der kürzlich eine SPAC-Fusion für einen geplanten Milliarden-Börsengang ankündigte.
  • planqc: Ein weiteres Münchner Spin-off, das auf neutrale Atome setzt und bereits 2024 eine Series A in Höhe von satten 50 Millionen Euro abschloss.
  • Alice & Bob: Auf internationaler Ebene steht besonders das französische Start-up Alice & Bob in direkter technischer Konkurrenz. Die Pariser entwickeln sogenannte Cat Qubits, die ebenfalls hardwareseitig fehlerresistent sind, und kooperieren dabei bereits eng mit Microsofts Quanten-Sparte.

Fazit: Risiko und enorme Chance

Das Board rund um einen ehemaligen Alphabet-X-Advisor sieht in Peak Quantum ein elementares Puzzleteil für ein eigenständiges europäisches Quanten-Ökosystem. Die Investition ist ein klassisches „Deep-Tech-Infrastruktur-Play“.

Dennoch ist eine Pre-Seed-Runde von 2,2 Millionen Euro im Jahr 2026 angesichts der Kapitalausstattung der Konkurrenz eine riskante Wette. Peak Quantum muss durch den Zugang zur SUPREME-Pilotlinie extrem schnell beweisen, dass die fehlerresistente Architektur industriell skaliert und nicht nur im Labor des WMI funktioniert.

Bringt das Team um Leon Koch erste greifbare Pilotprojekte mit Forschungs- und Industriepartnern in den Bereichen Materialforschung, Logistik oder industrieller Optimierung zum Laufen, könnte Peak Quantum zu einem technologischen Flaschenhals werden, an dem in Europa niemand mehr vorbeikommt. Es ist das Paradebeispiel dafür, wie smarte Gründer*innen nicht nur Code oder Hardware schreiben, sondern das System aus Fördergeldern, Pilotlinien und lokaler Forschungsexzellenz maximal zu ihrem Vorteil hebeln.

50 Mio. US-Dollar-Series A-Runde für Berliner FinTech Midas

Das 2024 von Dennis Dinkelmeyer, Fabrice Grinda und Romain Bourgois gegründete Web3-Start-up Midas sammelt 50 Mio. $ ein, um tokenisierte Vermögenswerte sofort liquide zu machen. Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen.

Der Markt für tokenisierte Vermögenswerte (Real World Assets, kurz RWA) wächst rasant, leidet jedoch noch immer an einer strukturellen Hürde: Während Kryptomärkte rund um die Uhr in Echtzeit handeln, sind traditionelle Finanzprodukte im Hintergrund oft an klassische, mehrtägige Abwicklungszyklen gebunden. Wenn Investor*innen ihre Token in liquide Mittel zurücktauschen wollen, kommt es unweigerlich zu Verzögerungen. Genau diese Lücke will das Berliner FinTech Midas nun schließen und hat dafür massiv Kapital aufgenommen.

Wie das Unternehmen heute mitteilte, flossen in einer Series-A-Finanzierungsrunde 50 Millionen US-Dollar (rund 46 Millionen Euro). Angeführt wird die Runde von den Venture-Capital-Firmen RRE Ventures und Creandum. Zu den weiteren Geldgebern zählen namhafte Branchengrößen wie Framework Ventures, Coinbase Ventures sowie der traditionelle Vermögensverwalter Franklin Templeton, der selbst bereits stark im Bereich tokenisierter Anlageprodukte aktiv ist. Mit der aktuellen Runde steigt das Gesamtfinanzierungsvolumen des Start-ups auf knapp 59 Millionen US-Dollar.

Das Gründerteam aus TradFi und Web3

Hinter Midas, das 2024 gegründet wurde, steht ein Team, das tiefes Wissen aus der traditionellen Finanzwelt (TradFi), dem Venture Capital und dem dezentralen Finanzsektor (DeFi) vereint. An der Spitze steht CEO und Mitgründer Dennis Dinkelmeyer, der vor der Gründung im Investment Research bei Branchengrößen wie Goldman Sachs und der Capital Group tätig war. Er bringt das essenzielle Verständnis für die Strukturierung institutioneller Anlageprodukte in die Blockchain-Welt ein.

Ergänzt wird die Führungsriege durch Executive Chairman und Mitgründer Fabrice Grinda. Als Gründungspartner des Investmentfonds FJ Labs gehört Grinda zu den weltweit aktivsten Angel-Investoren. Er steuert neben Kapital und einem enormen Netzwerk auch operative Erfahrung bei, die er unter anderem als Co-Gründer der für über eine Milliarde US-Dollar übernommenen Plattform OLX sammelte. Komplettiert wird das Führungstrio von Mitgründer Romain Bourgois. Der Tech-Experte war fast ein Jahrzehnt in leitenden Produktrollen beim AdTech-Giganten Criteo tätig, bevor er als Head of Product zum US-Konkurrenten Ondo Finance wechselte. Dort leistete er maßgebliche Pionierarbeit bei der Entwicklung und Skalierung der ersten großen tokenisierten US-Staatsanleihen, wie etwa OUSG und USDY.

Fokus auf „Midas Staked Liquidity“ (MSL)

Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen. Dabei handelt es sich um einen dedizierten Liquiditätspuffer, gegen den die firmeneigenen Token (mToken) jederzeit und ohne Wartezeit eingelöst werden können. Für institutionelle Investoren, die Treasury- und Portfolio-Management auf der Blockchain betreiben, ist diese sofortige Liquidität ein entscheidendes Kriterium.

Bisher mussten Rendite-Investoren oft zwischen der sofortigen Handelbarkeit und den Erträgen von DeFi-Protokollen abwägen – MSL soll diesen Kompromiss überflüssig machen. Die Midas-Plattform überführt dafür institutionelle Anlagestrategien, wie etwa Staatsanleihen (mTBILL) oder Basis-Handelsstrategien (mBASIS), in regulierungskonforme Token, die nahtlos in DeFi-Netzwerke wie Morpho oder Pendle integriert werden können. Nach eigenen Angaben hat Midas seit dem Start Token im Gesamtwert von über 1,7 Milliarden US-Dollar emittiert und dabei Erträge in Höhe von 37 Millionen US-Dollar an seine mehr als 20.000 Nutzer ausgeschüttet. Das Fintech finanziert sich dabei über Gebühren, die auf diese erwirtschafteten Renditen erhoben werden.

Die Brücke zwischen Wall Street und Blockchain

„Wir arbeiten auf eine Zukunft hin, in der Investitionen wie das Internet funktionieren: offen, transparent, kombinierbar und standardmäßig zugänglich“, formuliert CEO Dennis Dinkelmeyer den Anspruch des Unternehmens. Vic Singh, General Partner bei RRE Ventures, teilt diese Vision: Die Tokenisierung werde die globalen Kapitalmärkte fundamental verändern, sobald die traditionelle Finanzwelt ihre Infrastruktur vollständig auf die Blockchain verlagere.

Neben der Etablierung von MSL plant Midas, das frische Kapital für die Erschließung weiterer Anlageklassen und den Ausbau von Partnerschaften zu nutzen. Mit dem Einstieg von Schwergewichten wie Franklin Templeton und Coinbase Ventures positioniert sich das 2024 gegründete Unternehmen damit als einer der zentralen Infrastrukturanbieter an der lukrativen Schnittstelle zwischen klassischem Finanzwesen und der Krypto-Ökonomie.

Griff nach den Sternen: Lieferando- und Tier-Mitgründer sammelt 5 Mio. Euro für Solarenergie aus dem All

Das europäische Start-up TerraSpark will sauberen Strom per Funk aus dem Orbit zur Erde schicken. Mit dabei: der Deutsche Matthias Laug, Mitgründer von Lieferando und Tier Mobility, sowie deutsche Investoren. Wir wollten wissen: Wie realistisch ist das ehrgeizige Vorhaben der Tech- und Raumfahrt-Veteranen? Eine Einordnung.

Europas Energieinfrastruktur stößt zunehmend an ihre Grenzen. Während die Internationale Energieagentur (IEA) prognostiziert, dass sich der Strombedarf von Rechenzentren bis 2030 mehr als verdoppeln wird, zeigten großflächige Stromausfälle in Spanien und Portugal zuletzt die Schwächen der heutigen Energiesysteme auf.

Eine radikale Lösung für dieses drängende Problem verspricht nun das 2025 in Luxemburg gegründete Start-up TerraSpark. Das junge Unternehmen hat eine Pre-Seed-Finanzierungsrunde in Höhe von über fünf Millionen Euro erfolgreich abgeschlossen. Zu den Geldgebern zählen neben der Pariser Gesellschaft Daphni und dem Tech-Investor Sake Bosch auch die Angel-Investoren-Allianz better ventures und die Hans(wo)men Group. Ihr gemeinsames Ziel: Weltraumgestützte Solarenergie kommerziell nutzbar zu machen.

Prominente deutsche Wurzeln in einem hochkomplexen Hardware-Projekt

Dass dieses Vorhaben für die hiesige Gründerszene von besonderem Interesse ist, liegt maßgeblich an der personellen Aufstellung. Hinter TerraSpark steht ein Gründertrio, das eine seltene Kombination aus europäischer Raumfahrtexpertise und massiver Skalierungserfahrung vereint. Aus deutscher Sicht sticht hierbei besonders Chief Operating Officer Matthias Laug hervor. Als Mitgründer von Lieferando und Tier Mobility bringt er tiefe Erfahrung im Aufbau und in der Skalierung großer europäischer Plattformunternehmen in das komplexe Projekt ein.

Geführt wird das Team von CEO Jasper Deprez, einem Seriengründer, der zuvor die globale HR-Tech-Plattform Tradler aufbaute. Die zwingend notwendige Raumfahrt-Expertise liefert Chief Technology Officer Dr. Sanjay Vijendran: Er verantwortete bei der Europäischen Weltraumorganisation (ESA) bereits das Solaris-Programm zur weltraumgestützten Solarenergie und war an der Mars Sample Return Mission beteiligt. Auch auf Investor*innenseite ist das deutsche Vertrauen in das Team groß. Tina Dreimann, Gründerin und Geschäftsführerin von better ventures, lobt genau diese Mischung aus europäischer Raumfahrtkompetenz und der Erfahrung, Technologie wirklich zu skalieren.

Erst die Erde, dann das All

Die Vision des Trios ist gewaltig: Solarenergie soll im Weltraum eingefangen und per Funkfrequenz sicher zur Erde übertragen werden. Das Konzept ist in der Theorie bereits seit den 1970er Jahren bekannt, doch erst heute machen sinkende Startkosten sowie technologische Fortschritte in der Satellitenfertigung und Orbitrobotik die Umsetzung wirtschaftlich tragfähig.

Anstatt jedoch das immense Risiko einzugehen und sofort mit gigantischen Systemen im All zu beginnen, wählt TerraSpark bewusst einen schrittweisen Kommerzialisierungs-Ansatz. Das Startup startet auf der Erde mit der Kommerzialisierung funkfrequenzbasierter drahtloser Energieübertragung für industrielle Anwendungsfälle. Mit diesem pragmatischen Schritt sollen Sicherheit, Effizienz und regulatorische Kompatibilität im kleinen Maßstab demonstriert werden, bevor das System in den Orbit skaliert wird. Ein hochrelevanter Markt für diese erste Phase sind netzferne Regionen, die bislang auf Dieselgeneratoren angewiesen sind. Dort liegen die Stromkosten häufig bei etwa 0,70 bis 1,50 Euro pro Kilowattstunde – ein starkes Preissignal, das technologische Alternativen rasch wirtschaftlich attraktiv machen kann.

Um diesen Markt zu erschließen, bereitet das Unternehmen in den kommenden Monaten erste Pilotanwendungen vor, darunter die drahtlose Energieversorgung eines Live-Events. Auch die Roadmap für den Weg ins All steht: Ein erster orbitaler Technologie-Demonstrator ist für das Jahr 2027 geplant, die erste echte Weltraum-zu-Erde-Energieübertragung wird für 2028 anvisiert.

Markt, Wettbewerb & Machbarkeit
Obwohl die Physik hinter der funkfrequenzbasierten Energieübertragung laut CTO Sanjay Vijendran seit Jahrzehnten validiert ist, bleibt die weltraumgestützte Solarenergie ein extrem komplexes Unterfangen. TerraSpark ist auf diesem kapitalintensiven Spielfeld nicht allein. Neben Start-ups wie Virtus Solis aus den USA oder dem neuseeländisch-deutschen Unternehmen Emrod haben auch etablierte Luft- und Raumfahrtgiganten wie Airbus das enorme wirtschaftliche Potenzial längst erkannt und treiben eigene Forschungsprogramme voran.

Kritisch zu hinterfragen bleibt bei all diesen Vorhaben die technische Effizienz der Energieübertragung über gewaltige Distanzen bis hinunter zur Erde. Die Errichtung großflächiger Solarpaneele im Weltall erfordert trotz signifikant sinkender Frachtpreise weiterhin immense Vorabinvestitionen und unzählige Raketenstarts. Zudem muss der internationale regulatorische Rahmen für das Richten von hochkonzentrierten Funkwellen aus dem All auf irdische Empfangsstationen erst noch global abgestimmt werden.

Fazit

Der „Earth-first“-Ansatz von TerraSpark ist ein äußerst kluger, unternehmerischer Schachzug. Er mildert das finanzielle Risiko für die Seed-Investoren ab, demonstriert Technologie greifbar im Kleinen und könnte frühe B2B-Umsätze generieren, lange bevor die erste Hardware ins All fliegt. Dennoch bleibt der Meilenstein-Plan enorm ambitioniert. Matthias Laug und seine Mitstreiter*innen haben in der Vergangenheit zwar eindrucksvoll bewiesen, dass sie digitale und urbane Geschäftsmodelle massiv skalieren können. Der Schritt vom E-Scooter-Verleih zur interplanetaren Energie-Infrastruktur erfordert in den kommenden Jahren jedoch eine völlig neue Dimension der Exekution – und noch deutlich tiefere Taschen der Investor*innen.

deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken

Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.

Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.

Vom Agenturgeschäft zur SaaS-Lösung

Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).

Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“

Plattformansatz für Inspektionsdaten

Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.

Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.

Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“

Marktumfeld & regulatorische Barrieren

Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.

Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.

Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.

Der technologische Burggraben im starken Wettbewerb

Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.

Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.

Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.

Finanzierung & Ausblick

Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.

Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."

Architektur statt Strukturgröße: Aachener Chip-Start-up INCIRT sichert sich 4,8 Mio. Euro

Das Halbleiter-Start-up INCIRT hat eine Finanzierungsrunde in Höhe von 4,8 Millionen Euro abgeschlossen. Angeführt wird die Runde vom finnischen Early-Stage-VC Lifeline Ventures, während der High-Tech Gründerfonds (HTGF) – der bereits in der Seed-Runde 2022 investierte – erneut mitzieht. Das frische Kapital soll die Industrialisierung und den Markteintritt einer neuen Generation von Hochleistungs-Datenwandlern beschleunigen, die vor allem in Satelliten, 5G/6G-Infrastruktur und KI-Rechenzentren zum Einsatz kommen sollen.

Hinter dem DeepTech-Unternehmen steht ein Team mit tiefen akademischen Wurzeln. INCIRT entstand Anfang 2022 als exist-gefördertes Spin-off der RWTH Aachen. Die promovierten Elektrotechniker Dr. Oner Hanay (CEO), Dr. Erkan Bayram und Dr. Mohamed Saeed Elsayed brachten das wissenschaftliche Fundament mit, während Sebastian Waters (CCO/CFO) die kaufmännische Seite abdeckt. Technisch beraten wird das Team durch Prof. Dr. Renato Negra. Bereits im Gründungsjahr sorgten die Aachener für Aufsehen und gewannen den renommierten "Falling Walls Venture"-Award.

Intelligenz schlägt Nanometer

Der technologische Ansatz von INCIRT zielt auf ein Kernproblem der Halbleiterindustrie ab: Dem klassischen „Moore’s Law“ folgend, wurden Leistungssteigerungen in der Vergangenheit vor allem durch immer kleinere Transistoren (mittlerweile im einstelligen Nanometer-Bereich) erkauft. Dieser Weg stößt an physikalische Grenzen und lässt die Produktionskosten explodieren.

INCIRT setzt stattdessen auf eine patentierte, stark parallelisierte Systemarchitektur für seine Analog-Digital- und Digital-Analog-Wandler. Laut Unternehmensangaben ermöglichen diese eine bis zu 100-mal schnellere Datenübertragung bei signifikant geringerem Energieverbrauch. Der entscheidende strategische Vorteil: Weil die Architektur so effizient ist, können die Chips im etablierten, weitaus günstigeren 22-Nanometer-Verfahren produziert werden – und zwar direkt in Europa. Das macht das Start-up zu einem spannenden Akteur im Bestreben der EU, digitale Souveränität aufzubauen und die Abhängigkeit von asiatischen Mega-Foundries wie TSMC zu verringern.

Zwischen IP-Lizenz und Hardware-Hürden

So vielversprechend die Technologie ist, so steinig ist der Weg zur Kommerzialisierung. Der globale Markt für Datenwandler wird von etablierten US-Giganten wie Analog Devices, Texas Instruments oder Broadcom dominiert. Diese Konzerne verfügen nicht nur über Milliardenbudgets für Forschung, sondern auch über extrem tief verwurzelte Lieferbeziehungen zu den großen Netzwerkausrüstern und der Raumfahrtindustrie.

Zudem offenbart die Hardware-Entwicklung extrem lange Validierungszyklen. Bauteile, die in den Weltraum geschossen werden, müssen jahrelange Zertifizierungen durchlaufen. CEO Oner Hanay formuliert dennoch das ambitionierte Ziel, in zehn Jahren bis zu 10.000 europäische Satelliten mit INCIRT-Technologie auszurüsten.

Hier drängt sich die kritische Frage nach dem finalen Geschäftsmodell auf: Zur Seed-Runde 2022 positionierte sich INCIRT noch primär als skalierbarer Anbieter von „IP-Lösungen“ (Intellectual Property), der reine Baupläne lizenziert. In der aktuellen Kommunikation rückt nun die physische "Chipproduktion" in den Vordergrund. Sollte INCIRT als "Fabless"-Unternehmen auftreten, das Chips auf eigene Rechnung produzieren lässt, sind 4,8 Millionen Euro in der Halbleiterindustrie kaum mehr als ein Tropfen auf den heißen Stein. Allein um die Maskenkosten (Tape-outs) und das Working Capital für Massenmärkte zu finanzieren, wird mittelfristig ein Vielfaches an Kapital oder ein starker Industrie-Partner nötig sein.

Fazit

Die neue Runde verschafft INCIRT die entscheidende "Runway", um erste Kundenprojekte zu starten und die Leistungsfähigkeit der Chips im harten Praxiseinsatz zu beweisen. Gelingt es den Aachenern, die Platzhirsche bei Leistung, Kosten und Liefersicherheit zu schlagen, könnte das Spin-off ein essenzieller Baustein der europäischen Telekommunikationszukunft werden. Bis dahin bleibt es eine klassische DeepTech-Wette: Hochriskant, extrem kapitalintensiv – aber mit immensem Hebel, falls sie aufgeht.

Start-up trifft Industrie-Giganten: Wie planqc mit BMW und Infineon die Logistik der Zukunft berechnet

Wenn ein junges Technologie-Unternehmen mit Branchenriesen und der Spitzenforschung an einem Tisch sitzt, lohnt sich ein genauerer Blick. Das Garchinger Start-up planqc zeigt im neuen Forschungsprojekt „QIAPO“, wie der Brückenschlag zwischen hochkomplexer Quantenphysik und handfesten Industrie-Herausforderungen gelingen soll.

Für Gründer*innen im DeepTech-Segment ist es oft die größte Hürde: Wie übersetzt man Grundlagenforschung in ein Produkt, das für die Industrie greifbare Probleme löst? Das Münchner Start-up planqc liefert darauf aktuell eine spannende Antwort. Gemeinsam mit der Universität des Saarlandes sowie den Konzernen BMW und Infineon arbeitet das Team an einer Lösung für eines der hartnäckigsten Probleme der Wirtschaft: die Routen- und Prozessoptimierung bei unzähligen Variablen. Dass planqc hier als Quanten-Spezialist auftritt, ist das Ergebnis eines rasanten Aufstiegs in der europäischen Tech-Szene.

planqc: Aus der Forschung in die Wirtschaft

Gegründet 2022 von den Quantenphysikern Dr. Alexander Glätzle (CEO), Dr. Sebastian Blatt (CTO) und Dr. Johannes Zeiher, ist planqc das erste Spin-off des renommierten Max-Planck-Instituts für Quantenoptik. Das Team bringt nicht nur geballtes Know-how aus Garching mit, sondern verfolgt einen technologischen Ansatz, der sich bewusst von einigen BigTech-Giganten unterscheidet.

Während viele globale Konzerne auf fehleranfällige und aufwendig auf den absoluten Nullpunkt gekühlte Systeme setzen, nutzt planqc neutrale Atome als Qubits, die durch Laserlicht in optischen Gittern festgehalten werden. Dieser Ansatz ermöglicht den Betrieb bei Raumtemperatur und verspricht eine leichtere Skalierbarkeit der Qubits. Anstatt im Labor auf den theoretisch perfekten Rechner der fernen Zukunft zu warten, wählt das junge Unternehmen einen stark anwendungsorientierten Weg.

Der schnelle Aufstieg: Millionen-Investments und Großaufträge

Wie sehr dieser pragmatische Ansatz im Markt verfängt, zeigt die jüngere Firmengeschichte. Bereits kurz nach der Gründung zog planqc staatliche Großaufträge an Land – darunter den Zuschlag für die Entwicklung eines Quantencomputers für das Deutsche Zentrum für Luft- und Raumfahrt (DLR).

Der vorläufige Höhepunkt der wirtschaftlichen Skalierung folgte im Sommer 2024 mit einer Series-A-Finanzierungsrunde in Höhe von 50 Millionen Euro. Mittlerweile ist das Start-up auf rund 100 Mitarbeitende angewachsen und wurde im September 2025 mit dem renommierten Deutschen Gründerpreis in der Kategorie „StartUp“ ausgezeichnet. Das aktuelle, vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,3 Millionen Euro geförderte Projekt „QIAPO“ fügt sich nahtlos in diese strategische Ausrichtung ein.

Das Problem: Der limitierte klassische Computer

Ob bei der Produktion von Mikrochips (Infineon) oder in den weltweiten Lieferketten der Automobilindustrie (BMW) – überall lauern logistische Herausforderungen. Klassische Computer stoßen hier an ihre Grenzen. Sie lösen extreme Optimierungsprobleme oft nur noch mit Näherungswerten und extrem langen Rechenzeiten. Bisher galt in der Industrie daher oft die Devise: Man macht das Beste aus den vorhandenen Heuristiken.

Die Lösung: Ein hybrides Teamwork der Systeme

Genau hier setzt QIAPO (Quanteninformierte approximative Optimierung auf NISQ und partiell fehlertoleranten Quantencomputern) an. Das Projektteam erprobt ein Zusammenspiel aus zwei Welten. Den Anfang macht das System von planqc: Der Quantencomputer soll mit seinen speziellen Eigenschaften den hochkomplexen „Dschungel“ des logistischen Problems massiv ausdünnen. Das Problem wird auf diese Weise quasi „kleiner gerechnet“. Sobald es entscheidend vereinfacht ist, übernehmen wieder herkömmliche Rechner und nutzen ihre in der Praxis erprobten Algorithmen, um das greifbarere Problem zu Ende zu rechnen.

„Wir demonstrieren damit bereits heute, wie sich hochkomplexe, industrierelevante Herausforderungen in Quantenalgorithmen übersetzen lassen – die schließlich auf Quantencomputern getestet werden können“, erklärt Dr. Martin Kiffner, Head of Algorithms bei planqc.
 
Der unternehmerische Pragmatismus: Warum 85 % ein Erfolg sind

Das Besondere an diesem Ansatz – und ein wichtiges Learning für B2B-Gründer*innen – ist der Fokus auf messbare industrielle Fortschritte statt auf Perfektion. Prof. Dr. Peter P. Orth von der Universität des Saarlandes, der das Projekt koordiniert, betont, dass es auch mit dieser hybriden Methode vorerst keine 100-prozentige Lösung geben wird.

Ein theoretisches Rechenbeispiel verdeutlicht jedoch das Potenzial: Wenn ein Lieferketten-Problem heute durch klassische Rechner mit 80-prozentiger Genauigkeit gelöst wird, könnte die Kombination mit Quanten-Hardware diese Genauigkeit auf 85 oder 95 Prozent anheben. Für Corporates wie BMW und Infineon bedeutet genau diese kleine Marge durch Ressourceneinsparungen bei extrem hohen Produktionsvolumina einen enormen wirtschaftlichen Hebel.

Fazit

Planqc beweist, dass Start-ups nicht zwangsläufig das allumfassende, finale Endprodukt vorweisen müssen, um für internationale Konzerne hochrelevant zu sein. Oft reicht es, mit der eigenen Spitzentechnologie präzise in eine Lücke zu stoßen, die bestehende Systeme hinterlassen – und sich über starke Industriepartnerschaften das Rüstzeug für die weitere Skalierung zu sichern.

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere

Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.

Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.

Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.

Der technologische Schlüssel: "Direct Cytosolic Transfer"

Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.

Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.

Zwischen enormem Potenzial und hohem Risiko

Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.

Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.

Blaupause für Deep-Tech-Gründer

Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:

  • Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
  • Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
  • Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.

Gründer*in der Woche: VARM – Unf*ck the planet

Wie die VARM-Gründer Christian Grüner und Sebastian Würz das Handwerk skalieren und die Wärmewende beschleunigen wollen.

Am Anfang stand kein Hype, sondern eine einfache Wahrheit: Die günstigste Kilowattstunde ist die, die gar nicht erst verloren geht. Christian Grüner, Mathematiker, ehemaliger Managementberater und Gründer, folgte dieser schlichten Logik, als er sich nach dem Verkauf seines ersten Start-ups den Themen Klimaschutz und klimawirksame Gebäudesanierung widmete und erkannte: Nicht die nächste glänzende Hardware verspricht den größten Hebel für mehr Energie­- und Kosteneffizienz in Gebäuden, sondern eine solide Hülle. „Ich wollte etwas Physisches mit echtem Impact bauen. Dämmung ist dafür der unterschätzte Schlüssel“, sagt Christian rückblickend.

So entstand die Idee zu VARM, das er 2023 zusammen mit Sebastian Würz gründete, der über Know-how im Aufbau wachstumsstarker Start-ups und Expertise in Finanzen, Personal und Vertrieb verfügte, – als zentrale Anlaufstelle für effek­tive Hausdämmung. „Wir verbinden Handwerkskompetenz mit digitalen Prozessen – von der Beratung bis hin zur Ausführung“, so Christian. Das Ziel: Full-Service-Dämmung für Ein- und Mehrfamilienhäuser – transparent, plan- und skalierbar.

Brücke zwischen zwei Welten

Die größte Challenge dabei? Zwei Kulturen zusammenbringen: moderne Start-up-Mechanismen und traditionelles Handwerk. „Auf dem Papier ist Standardisierung leicht. Auf der Baustelle bedeutet sie: klare Abläufe, gute Ausbildung, saubere Kommunikation – jeden Tag“, sagt Christian.

Deshalb baut VARM eigene Teams auf, setzt auf eigene Handwerker*innen statt auf Subunternehmertum und professionalisiert das Gewerk mit durchgängig digitalen Prozessen: Von der Bedarfsanalyse über Angebot und Materiallogistik bis hin zur Nachbetreuung läuft alles in einer klaren Taktung. Qualität ist kein Zufall, sondern das Ergebnis von Prozessen und den Menschen, die diese Struktur tragen, so das Credo der Gründer.

Die Business-in-a-Box fürs Handwerk

Mit der inhouse entwickelten Business-in-a-Box hilft man den eigens ausgebildeten Handwerker*innen, ihre eigenen Betriebe per Franchise zu eröffnen und als selbständige „Dämm-Entrepreneur*innen“ zu operieren. „Wir reduzieren Einstiegshürden, stellen Tools, Aufträge, Schulung sowie Qualitätsmanagement und ermöglichen Selbständigkeit, wo sie bisher nur sehr schwer zugänglich war“, sagt Christian.

Der digitale Backbone schafft zugleich Skalierbarkeit: KI-gestützte Planung, zentrale Materiallogistik und intelligente Einsatzsteuerung sollen es perspektivisch ermöglichen, dass eine Person bis zu 50 Handwerkteams parallel koordiniert; ein Effi­zienzsprung um den Faktor 25 gegenüber dem klassischen Handwerk.

VARM ist somit der klassische Anwendungsfall von Physical­ AI: Hier trifft die „echte“ Welt auf KI-basierte Effi­zienz­steigerung. Für eine fragmentierte Branche bedeutet das Disruption mit Augenmaß: lokal, qualitätsgesichert und paneuropäisch denkbar.

Auf Wachstumskurs

Schon kurz nach dem Start konnte das Start-up eine siebenstellige Pre-Seed-Runde schließen – angeführt von Foundamental und noa, flankiert von Business Angels wie den Gründern von Thermondo und Ecoworks. 2024 folgte die Seed-­Runde über 5,7 Millionen Euro, an der unter anderen Emerge, Pale Blue Dot und die Bestands­investor*innen beteiligt sind.

Zudem expandierte VARM rasch nach Hamburg, Nordrhein-­Westfalen und in die Rhein-Main-Region – weitere Standorte sind in Planung. Strategische Partnerschaften mit Energie­beratungen, Hausverwaltungen, Versorger*innen, Wärmepumpen-Playern und den großen deutschen Baumarktketten sollen letztendlich das Thema Dämmung mit der restlichen Energiewelt verzahnen. „Unser Anspruch ist Exzellenz im Handwerk. Das macht unsere Kunden zu Fans“, so Christian. „Mit über 300 Fünf-Sterne-Google-­Bewertungen können wir stolz auf unseren Service sein.“

Impact, der sich rechnen lässt

Jedes gedämmte Haus spart im Schnitt rund 1,6 Tonnen CO pro Jahr – über 20 Jahre kumuliert das signifikant. Bei hunderten Projekten pro Jahr summiert sich ein sichtbarer Klima­effekt und macht Wärmepumpen und Co. erst richtig effizient. „Die Gebäudehülle ist die erste Energiequelle. Sie bestimmt, wie gut alles andere arbeitet“, so Christian. Oder kürzer: „Ohne Dämmung verpufft der Fortschritt.“

No Bullshit, viel Verantwortung

Im Unternehmen selbst setzen die Gründer auf Customer Obsession, Trust in Data und „No-Bullshit-Strategie“, kombiniert mit einem Satz, der hängenbleibt: „Unf*ck the planet.“ Das soll die Haltung ausdrücken, die auf Baustellen benötigt wird: Initiative, Verlässlichkeit, Respekt. Und ja, Diversität ist gewollt: VARM öffnet Karrierepfade ohne Meisterpflicht und Buy-in, macht unternehmerische Selbständigkeit im Handwerk niedrigschwellig, besonders in solchen Regionen, die neue Chancen gut gebrauchen können.

Der Blick nach vorn

Die Mission von VARM ist und bleibt ambitioniert: Eine Million Häuser in zehn Jahren dämmen, aus lokalem Handwerk eine europäische Infrastruktur bauen. Das Franchise-System hilft bei der Skalierung und die Plattform verbindet Kund*innen, Planung und Teams. „Wir bauen den europäischen Champion für Dämmung: dezentral organisiert, zentral gesteuert“, sagt Christian selbstbewusst.

Christians Tipps für Gründer*innen

  • Baue ein solides System – nicht nur das schnelle Produkt: Die große Idee zählt wenig, wenn Ausbildung, Prozesse und Qualität nicht stehen. Wer Wirkung will, muss Strukturen bauen, die auch im Alltag halten – auf der Baustelle und bei den Kund*innen, nicht nur im Office.
  • Standardisierung ja, aber mit Menschen im Mittelpunkt: Effizienz entsteht nie durch Software allein. Sie entsteht, wenn Teams verstehen, warum ein Ablauf Sinn ergibt, und ihn mittragen. Technologie ist das Werkzeug, aber das tägliche Handeln der Teams entscheidet.
  • Setze auf den „echten“ Hebel: Dämmung hat kein Glanz-Image, aber einen enormen Effekt. Manchmal liegt der größte Impact dort, wo keiner hinschaut – und genau das macht den Unterschied.
  • Skalierung heißt Wiederholung mit Anspruch: Wachstum ist keine Abkürzung, sondern Konsequenz. Es bedeutet, dieselben Dinge jeden Tag verlässlich gut zu machen – und jeden Tag ein Stück besser.

50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert

Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.

Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.

Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.

Vom Side-Project zur modularen Architektur

Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.

Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.

Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.

Das Open-Core-Modell auf dem Prüfstand

Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.

Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.

Im Haifischbecken der Tech-Giganten

In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.

Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.

Lektionen für die Start-up-Szene

Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.

Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.

Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.