Mit personalisierten Produkten starten – welches Shop-System ist dafür geeignet?


44 likes

Derzeit befinden wir uns in einer Zeit, in welcher der Onlinehandel mehr floriert denn je. Wer bisher ausschließlich auf den Einzelhandel gesetzt hat, der hat es derzeit aufgrund des Lockdowns schwer. Sicherlich entsteht dadurch auch Tatendrang, denn gerade personalisierte Produkte können jetzt vielleicht einfacher verkauft werden. Doch alles startet zuerst einmal mit dem richtigen Shop-System.

Nicht jedes Shop-System ist für jedes Anliegen geeignet, insbesondere bei personalisierten Produkten stoßen verschiedene Systeme schnell an ihre Grenzen. Daher ist es wichtig, dass man sich einen Überblick verschafft. Wie sieht es mit den eigenen Anforderungen aus und wie mit der möglichen Usability. Die Usability ist essenziell, denn Kunden strafen komplizierte Systeme schnell ab.

Welche Shop-Systeme gibt es zur Auswahl?

Heutzutage gibt es eine große Auswahl an Shop-Systemen, welche nach den persönlichen Anforderungen betrachtet werden sollten. Hierzu zählen zum Beispiel diese Anbieter oder Softwaresysteme:

  • WooCommerce
  • Shopware
  • Shopify
  • Plentymarkets
  • Jimdo Onlineshop
  • JTL Shop
  • CosmoShop

Jedes dieser Systeme hat zum Teil auch einen großen Bestand an bereits vorgefertigten Designs und Erweiterungen. Dadurch können Automatismen unkompliziert angelegt werden, andererseits können aber auch Marketing-Tools verwendet werden. Der Bau einer Landingpage ist zum Beispiel wichtig, damit Werbeanzeigen effektiver geschaltet werden können, genauso aber auch, um besser in den organischen Suchergebnissen gefunden zu werden.

Für personalisierte Produkte müsste entsprechend recherchiert werden. Für WooCommerce gibt es zum Beispiel das Plugin „Product Option Manager“ oder für Shopify die App „Inkybay Produkt-Customizer“. Bei Shopware kann auf den „Produktdesigner“ zurückgegriffen werden und bei JTL können Variationen hinzugefügt werden, wodurch ein Freitext ergänzt werden kann.

Verkauf auf weitere Plattformen

Produkte, wie z.B. personalisierte Baby Artikel werden immer beliebter und danach suchen Nutzer auch auf anderen Plattformen. Es ist daher wichtig, dass es eine Anbindung gibt zwischen dem eigenen Shop und den Marktplätzen wie eBay, Amazon oder auch Google Shopping.

Bei Shopify ist das bereits integriert und muss lediglich verknüpft werden, aber bei anderen Systemen wie WooCommerce wird dafür zuerst ein Plugin installiert. Je nach Umfang kann die Anbindung aber auch etwas kosten. Wenn das Plugin funktioniert und es dadurch zu mehr Umsatz kommt, kann dieser Betrag aber i. d. Regel aber gut verkraftet werden.

Der Vorteil dabei ist, dass der Nutzer auf einer gewohnten Umgebung (wie Amazon) einkauft. Im Paket kann eine Werbung hinzugelegt werden, sodass der Kunde beim nächsten Mal vielleicht nicht über den Marktplatz kauft, sondern direkt im eigenen Shop. Damit werden künftige Gebühren gespart und der Kunde so schnell zum Stammkunden.

Was kostet ein eigener Onlineshop?

Die Kosten für einen Onlineshop spielen insbesondere am Anfang eine essenzielle Rolle, denn die Finanzierung muss immerhin gewährleistet sein. Es kommt darauf an, welche Funktionen bereitstehen müssen und wie der Ablauf im Hintergrund organisiert wird. So besteht auch die Möglichkeit eines Dropshipping-Shops, wodurch kein eigener Warenbestand vorliegt.

Ein System wie WooCommerce kann für wenige Euro im Jahr (zuzüglich der Kosten für das Plugin zur Produktindividualisierung) betrieben werden, aber dafür muss auch viel selbst eingerichtet werden. Bei dieser Software gibt es aber auch sehr gute Möglichkeiten zur Individualisierung bezüglich des Webdesigns – daraus kann recht einfach eine Marke kreiert werden.

Bei fertigen Systemen für „mittelgroße Händler“ gibt es auch Systeme wie Jimdo, dessen Einrichtung sehr schnell geschieht – hier beginnen die Preise ab 228 Euro. Wenn bereits technische Kenntnisse vorliegen, kann sich definitiv auch an WooCommerce gewagt werden.

Diese Artikel könnten Sie auch interessieren:

Fördermittel: Worauf Gründer*innen von Beginn an achten sollten

Wichtige Dos and Don’ts bei der Fördermittelbeantragung.

Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.

In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.

Die Weichenstellung: Förderung ist eine Managemententscheidung

Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:

1) Aufbauphase: Fokus schaffen (unter anderem exist)

In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.

2) Projektphase: Planbar entwickeln (etwa ZIM)

Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.

3) Förderung in jeder Phase (Forschungszulage)

Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.

Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.

Fazit

Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.

Die Autorinnen

Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.

Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Retourendaten als ungenutztes Potenzial

Retouren sind dein größter Kostenfaktor – aber auch eine wertvolle Datenquelle. Unser Artikel samt Praxis-Checkliste zeigt dir, wie du sie strategisch zum Marketing-Booster machst!

Retouren kosten den Handel jedes Jahr Millionen Euro. Dabei wird oft verkannt, dass sie auch eine wertvolle Quelle für mehr Umsatz und eine bessere Customer Journey sind. Aktuelle Daten aus dem Jahr 2025 zeigen, wie sich das Retourenverhalten von Verbrauchern entwickelt – und welche ungenutzten Chancen hierbei für dich und dein E-Commerce-Unternehmen liegen.

Die wichtigste Erkenntnis aus dem aktuellen Retouren-Report 2025: Immer weniger Kunden senden ihre Einkäufe zurück. Im Jahr 2025 waren es nur noch 46 Prozent – im Vergleich zu 51 Prozent in 2024 und 67 Prozent im gleichen Zeitraum 2023.

Trotz dieser sinkenden individuellen Retourenneigung prognostiziert die Universität Bamberg für Deutschland im Jahr 2025 ein neues Rekordvolumen von 550 Millionen Paketen. Um dieser Diskrepanz zu begegnen, musst du als Online-Händler deine Zielgruppen basierend auf den bei der Retoure gewonnenen Einsichten künftig präziser ansprechen.

Wenn Daten ungenutzt verpuffen

Noch immer ignorieren viele Online-Shops, wer welche Produkte warum zurückschickt. Betrachtest auch du Retouren oft ausschließlich aus der reinen Umsatzperspektive und übersiehst die damit verbundenen wertvollen Details zu Zielgruppen, Produkten und Kanälen? Viele erfassen zwar Retourengründe, doch nur ein Bruchteil wertet diese systematisch und automatisiert aus. Dabei könntest du genau diese Daten nutzen, um ein tiefgreifendes Verständnis für das Kauf- und Retourenverhalten deiner Kunden zu gewinnen.

Ohne diese Analyse gehst du das Risiko ein, dass beispielsweise Produkte mit einer hohen Retourenquote weiterhin bei Zielgruppen beworben werden, die sie überdurchschnittlich oft zurücksenden. Nutze deine Tools konsequent und schließe Kundengruppen, die deine Marge gefährden, vom Targeting aus. Bei durchschnittlichen Bearbeitungskosten von 5 bis 20 Euro pro Retoure – im komplexen Sortiment sogar bis zu 50 Euro – entstehen dir sonst erhebliche, aber vermeidbare Verluste.

Ein weiteres Beispiel für verpasste Chancen zeigt ein Blick auf die Rückgabepräferenzen. Demnach wünschen sich Frauen deutlich häufiger alternative Rückgabeoptionen als Männer (63 Prozent versus 53 Prozent). Ein klarer Hinweis darauf, dass Standardangebote hier weniger gut ankommen. Dennoch sprichst du in der Praxis vermutlich beide Zielgruppen identisch an.

Retourendaten als Marketing-Kompass

Die Lösung hast du paradoxerweise wahrscheinlich bereits im Haus: deine Retourendaten. Durch eine systematische und strategische Auswertung lassen sie sich als wertvolle Marketing-Intelligence nutzen. Ein zentraler Baustein sind datenbasierte Analysen, die Kaufhistorie, Kontaktpunkte, Retourenmuster sowie bevorzugte Produktkategorien verknüpfen.

Eine gezielte Steuerung der Kundenansprache und der Produktpositionierung nimmt unmittelbar Einfluss auf das Retourenverhalten. So wird es dir möglich, Produkte mit hoher Retourenquote für bestimmte Zielgruppen aus dem Fokus zu nehmen. Wird beispielsweise ein bestimmtes Schuhmodell bei den über 45-Jährigen überdurchschnittlich oft retourniert, solltest du es für diese Altersgruppe nicht mehr in Marketingkampagnen ausspielen.

Ebenso wie dein Produktportfolio kannst du auch deine Services an klare Kundenwünsche anpassen: 58 Prozent der Kunden wünschen sich neben der klassischen „Retoure gegen Erstattung“ auch andere Optionen wie Umtausch, Gutscheine oder Reparaturen. Diese Erkenntnis ermöglicht dir differenzierte, zielgruppengerechte Serviceangebote und schützt dich vor einem kompletten Umsatzverlust.

Auch eine datenbasierte Kanalbewertung wird möglich: Während 33 Prozent der 18- bis 34-Jährigen Social Commerce als Einkaufskanal nutzen, sind es bei den über 55-Jährigen nur rund 15 Prozent. Retourendaten zeigen dir präzise, welche Kanäle für bestimmte Produkte problematisch sind und wo du Budgets umschichten musst.

Erst eine konsequente Analyse der Retourengründe macht es dir möglich, Produktinformationen zu optimieren und Vertriebskanäle belastbar zu bewerten. Statt Millionen für Streuverluste auszugeben, kannst du deine Customer Journey gezielt verbessern.

Silos ade: Zusammenarbeit von Marketing, E-Commerce und Produktteams

Entscheidend für die optimale Nutzung dieser Einsichten ist der regelmäßige Austausch zwischen deinen Marketing-, E-Commerce- und Produktteams. Im Zusammenspiel können Erkenntnisse aus Retourengründen nahtlos in Produktbeschreibungen und Kampagnenbotschaften einfließen.

Wenn dein E-Commerce-Team beispielsweise feststellt, dass bestimmte Farbvarianten bei spezifischen Altersgruppen besonders oft mit dem Grund „sieht anders aus als erwartet“ retourniert werden, können Marketing und Produktentwicklung sofort reagieren: durch bessere Produktfotos, angepasste Beschreibungen und eine differenzierte Zielgruppenansprache.

Diese abteilungsübergreifende Verschränkung erfordert jedoch neue Prozesse: Wöchentliche Retourendaten-Reviews, gemeinsame KPIs und automatisierte Alerts bei auffälligen Retourenmustern sind Pflicht. Nur so wird aus der reaktiven Kostenstelle ein proaktives Steuerungsinstrument.

Daten bringen nachhaltigen Erfolg

Wenn du Retourendaten strategisch nutzt, sparst du nicht nur Kosten. Du steigerst die Konversion, senkst Streuverluste und reduzierst den Kundenfrust. Echter Erfolg stellt sich schließlich erst dann ein, wenn der Kunde sich nicht nur für den Kauf entscheidet, sondern das Produkt am Ende auch behält.

Begreife Retouren daher noch stärker als präzise Datenquelle für eine bessere Kundenbeziehung. Wenn du deine Retourendatenanalyse jetzt professionalisierst, verwandelst du den Kostenfaktor endgültig in deinen Marketing-Booster.

Der Autor Artjom Bruch ist CEO der Trusted Returns GmbH


StartingUp-Checkliste: So machst du deine Retourendaten zum Marketing-Booster

Prüfe dein aktuelles E-Commerce-Setup. Wie viele dieser Fragen kannst du bereits mit „Ja“ beantworten?

  • [ ] Präzise Datenerfassung: Erfasst du detaillierte Retourengründe (über ein Dropdown-Menü im Retourenportal) statt nur eines pauschalen „Gefällt nicht“?
  • [ ] Dynamisches Targeting: Schließt du Kunden oder Segmente, die ein bestimmtes Produkt überdurchschnittlich oft retournieren, automatisch von der weiteren Bewerbung dieses Artikels aus?
  • [ ] Zielgruppengerechte Rückgabe-Optionen: Bietest du im Retourenprozess aktiv Alternativen wie Direkt-Umtausch, Store-Credit (Gutschein) oder Reparatur an, anstatt sofort den Kaufpreis zu erstatten?
  • [ ] Kanal-Rentabilitäts-Check: Analysierst du, ob Kunden, die über Plattformen wie TikTok oder Instagram kaufen, eine signifikant höhere Retourenquote aufweisen als Käufer aus dem E-Mail-Marketing?
  • [ ] Silos aufbrechen: Gibt es ein regelmäßiges (z. B. wöchentliches) Meeting zwischen Marketing, E-Commerce und Produktmanagement, um auffällige Retourenmuster zu besprechen?
  • [ ] Automatisierte Warnsysteme: Erhält dein Team einen automatischen Alert, wenn die Retourenquote eines neu gelaunchten Produkts innerhalb der ersten 48 Stunden einen definierten Schwellenwert übersteigt?

Je mehr Haken du setzen kannst, desto näher bist du am profitablen Retouren-Management.

Primogene: Muttermilch als Vorbild

Primogene ist ein 2023 gegründetes BioTech-Start-up mit Sitz in Leipzig, das sich auf die Entwicklung biotechnologischer Herstellungsverfahren für bioidentische Inhaltsstoffe spezialisiert hat. Ein Schwerpunkt liegt auf Verbindungen, die der Muttermilch nachempfunden sind und die Gesundheit in allen Lebensphasen fördern können.

Auch wenn das Produkt als weißes Pulver eher unscheinbar aussieht, markiert seine Existenz einen wissenschaftlichen Meilenstein. „Wir haben eine spezielle Technologie entwickelt, dank der wir komplexe bioidentische humane Milchzucker skalierbar herstellen können“, erzählt Linda Karger, einst Managementstudentin an der Technischen Universität in München, heute COO der 2023 in Leipzig gegründeten Primogene GmbH. Die chemischen Verbindungen entsprechen also den im menschlichen Körper vorkommenden Molekülen bis ins kleinste biochemische Detail. Und sie übernehmen – obwohl industriell hergestellt – die gleichen Funktionen, die bisher nur Muttermilch garantierte.

Zum Verständnis: Die komplexen Zuckerstrukturen sind nach Fett und Laktose der drittgrößte feste Bestandteil menschlicher Milch. Sie bieten einzigartige gesundheitliche Vorteile, unterstützen beispielsweise das Immunsystem sowie die kognitive Entwicklung wie kein anderer Stoff. „Nach zahllosen Gesprächen mit Ärzten und Kliniken begann unsere Geschichte mit der Idee, nährstoffreiche Inhaltsstoffe als Zusatz für die Ernährung von Frühgeborenen herzustellen. Weitergedacht können bioaktive Bestandteile der Muttermilch ebenso zur Krankheitsprävention bei Erwachsenen sinnvoll eingesetzt werden“, erklärt Karger. „Um das Wirkungspotenzial unserer Human Milk Oligosaccharides (HMO) weiter zu erforschen, testen wir diese aktuell in enger Zusammenarbeit mit dem Leipziger Fraunhofer-Institut für Zelltherapie und Immunologie.“

Produktsortiment in der Breite offen

Gleichzeitig wird die von Dr.-Ing. Reza Mahour (CEO, Experte für Bioverfahrenstechnologie) und Valerian Grote (CTO, Molekularbiologe/Experte für Analytische Biochemie) entwickelte enzymatische Technologie genutzt, um bioidentische Moleküle für andere Märkte zu erzeugen, beispielsweise Inhaltsstoffe für Produkte der Körperpflege oder Rohmaterialien für die Pharmaindustrie. „Wir produzieren selbst. Dabei lässt sich jedes unserer Produkte auf die spezielle Technologie zurückführen. Unseren Kunden bieten wir Komplettlösungen – das reicht von der Suche nach der richtigen Produktionsplattform bis hin zu Entwicklung und Produktion“, bestätigt Karger. Erste Umsätze wurden nach ihren Angaben bereits früh erzielt. Inhaltsstoffe für den Kosmetikbereich sollen noch in diesem Jahr mithilfe bestehender Partnerschaften am Markt eingeführt werden. Im Pharmabereich wird ebenfalls mit ersten Kunden zusammengearbeitet.

Karger ergänzt: „Wir haben früh auf Partnerschaften und Vorbestellungen gesetzt, um den Markt besser zu verstehen.“ Um die bereits verabredeten hochwertigen Roh- und Inhaltsstoffe bald in größeren Mengen liefern zu können, ist das aktuell elfköpfige Team von Primogene gerade innerhalb Leipzigs umgezogen. Für die anstehende Skalierung war der Wechsel auf eine Betriebsstätte mit mehr Laborfläche und größerem Produktionsbereich wichtig. Große Mitspieler auf dem Feld der HMOs wie die niederländische DSM-Firmenich oder der dänische Konzern Chr. Hansen schrecken Karger nicht: „Bekannt sind mehr als 200 verschiedene HMOs, davon sind bisher sieben strukturell einfacher industriell herstellbar und auf dem Markt. Sie werden mit einer Fermentationstechnologie produziert. Unser enzymatisches Verfahren kann deutlich mehr und komplexere Zuckerstrukturen hervorbringen. Außerdem reicht unsere Produktpalette weit über HMOs hinaus.“

Sichtbarkeit durch Innovationsplattform futureSax erleichtert Investorensuche

Das bisher benötigte Kapital stammt unter anderem von Business Angels aus dem Bereich der Biotechnologie, darunter auch Climate Founders, bei deren Accelerator-Programm Mahour Grote und Karger einst zusammenfanden. Für Primogene als forschungs- und deshalb kapitalintensives Biotech-Unternehmen sind daneben die Mittel aus Förderprogrammen des Landes Sachsen und der Stadt Leipzig von wesentlicher Bedeutung. Darüber hinaus profitiert das Start-up noch heute von der Sichtbarkeit, die es durch den Gewinn des dritten Platzes beim Sächsischen Gründerpreis 2024 erhielt. Zunächst sorgten der professionelle Nominiertenfilm und die begleitende Öffentlichkeitsarbeit von futureSax für Aufmerksamkeit sowohl in den Medien als auch innerhalb des Netzwerks.

Dann bot die Preisübergabe auf der Sächsischen Innovationskonferenz vor über 1.000 Gästen Primogene eine wichtige Gelegenheit zur Präsentation. „Sachsen ist ein Innovationsstandort mit besonderer Dichte: Exzellente Forschung, starke Industrie- und Mittelstandsstrukturen und eine wachsende Start-up-Szene greifen ineinander. Hier entstehen Lösungen, die international wettbewerbsfähig sind. Entscheidend ist der Schulterschluss im Ökosystem – von Hochschulen über Unternehmen bis zu Kapitalgebern. futureSax schafft dafür die Bühne und die Verbindungen, damit aus Ideen schneller Produkte, Partnerschaften und Gründungen werden“, erklärt Susanne Stump, Geschäftsführerin der Innovationsplattform des Freistaats Sachsen. Das Interesse großer Investoren bestätigt, dass Primogene auf dem richtigen Weg ist. Im Jahr 2025 schloss das innovative Start-up eine Seed-Finanzierungsrunde mit namhaften Investoren wie HTGF, TGFS, der Sächsischen Beteiligungsgesellschaft und better ventures ab. Das geplante Personalwachstum sowie die Produktionsaktivitäten der nächsten zwei Jahre sind damit gesichert.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Rechtsruck auf Social Media: Was Start-ups jetzt tun müssen

Hass und rechte Narrative dominieren zunehmend die Kommentarspalten, da Social-Media-Algorithmen diese Polarisierung mit Reichweite belohnen. Was du wissen solltest und wie du aktiv gegensteuern kannst.

Was früher als Randphänomen galt, ist heute leider Alltag: Kommentarspalten auf Instagram, TikTok und Facebook werden zunehmend von rechten Narrativen, gezielten Provokationen und orchestrierten Empörungswellen geprägt. Gleichzeitig verstehen sich die meisten Plattformen längst nicht mehr primär als „soziale Netzwerke“, sondern als Entertainment-Plattformen. TikTok kommuniziert das beispielsweise schon länger sehr offen. Dadurch verlagert sich der „soziale“ Austausch in Direktnachrichten, Gruppenchats – und vor allem in die Kommentare.

Was viele junge Unternehmen jedoch unterschätzen: Nutzer*innen klicken oft schon nach wenigen Sekunden auf die Kommentare, während das Video noch läuft. Der Diskurs unter dem Content ist somit zum eigentlichen Content geworden. Und die Plattformen belohnen genau das.

Warum Polarisierung algorithmisch attraktiv ist

Algorithmen priorisieren Interaktionen – und Kommentare zählen mehr als Likes. Reißerische Headlines und Clickbait funktionieren seit jeher. Neu ist allerdings, dass auch Empörung, Wut und Zuspitzung algorithmisch belohnt werden, weil sie zu mehr Kommentaren führen. Mehr Kommentare bedeuten mehr Reichweite. Mehr Reichweite wiederum zieht neue Kommentierende an.

Für Marketer entsteht eine paradoxe Situation: Negative und hasserfüllte Kommentare können die Performance eines Posts steigern. Ironischerweise sorgen Hasskommentare unter Umständen dafür, dass genau dieser Beitrag noch stärker ausgespielt wird. Doch diese Dynamik hat ihren Preis. Sie normalisiert radikale Narrative in Mainstream-Feeds. Dazu haben Plattformen wie TikTok ihre Moderation oder Meta den unabhängigen Faktencheck leider zuletzt eher eingeschränkt als ausgeweitet. Damit müssen Start-ups und ihre Marketingteams selbst mehr Verantwortung übernehmen.

Wenn der Rechtsruck im Community Management ankommt

In unserer Social-Media-Boutique-Beratung erleben wir die Folgen täglich. Ob sexualisierte Kommentare unter einem Video mit einer körperbetont gekleideten Darstellerin, das Leugnen des Klimawandels unter Nachhaltigkeits-Content sowie Veganismus-Bashing von Fleisch-Ultras oder rassistische und islamophobe Kommentare unter Beiträgen einer Expertin mit Kopftuch: Die Intensität hat erheblich zugenommen.

Besonders letzteres war für mein Team ein Wake-up-Call. In unserer Bubble in Berlin-Kreuzberg spüren wir gesellschaftliche Verschiebungen oft weniger direkt. Doch in den Kommentarspalten ist der Rechtsruck real – und emotional belastend, nicht nur für die Betroffenen, sondern auch für das Community-Management-Team. Start-ups sollten daher klare Leitlinien haben, wie sie auf Social Media mit Hass umgehen.

Schutz zuerst und don’t feed the trolls

Das Wichtigste zuerst: Die Darsteller*innen müssen geschützt werden. Im Idealfall bekommen sie von der Hasswelle nichts mit. Für Social-Media-Teams bedeutet das: zwei- bis dreimal tägliche Moderationsrunden, klare Standard Operating Procedures und konsequentes Verstecken und Melden von Hasskommentaren.

„Don’t feed the trolls“ bleibt eine valide Grundregel. Öffentliche Diskussionen mit klar provokativen Accounts führen selten zu Einsicht – oft nur zu weiterer Eskalation oder dazu, dass Gleichgesinnte mobilisiert werden. Solche Posts sollten sofort versteckt, gemeldet und dokumentiert werden. Bei grenzwertigen Kommentaren kann es sinnvoll sein, sie teilweise stehen zu lassen, wenn die Community diesen Äußerungen konstruktiv widerspricht. Denn eine starke Community kann selbstregulierend wirken und stärkt das Wir-Gefühl.

Eine weitere sehr gute Maßnahme ist, einen eigenen Kommentar nach folgendem Motto zu verfassen: "Wir als Marke X stehen für XYZ. Jegliche Form von Hass wird von uns nicht toleriert. Dennoch haben wir uns entschlossen, dahingehende Äußerungen unter diesem Post stehen zu lassen, weil das Löschen gegen unsere Werte verstößt. Jedoch melden wir jeden einzelnen Hasskommentar." Dies zeigt eine klare Haltung und kann oben angepinnt werden.

Ist die Kommentarflut jedoch nicht mehr moderierbar, empfiehlt es sich, die Kommentarfunktion in Ausnahmefällen zu deaktivieren oder den Post zu archivieren. Solch eine Maßnahme mussten wir beispielsweise bei einem Projekt ergreifen, bei dem die Expertin ein Kopftuch trug, da die islamophoben Kommentare regional leider massiv zunahmen. So mussten wir die Performance-Ads mit ihr in bestimmten Regionen aussetzen – in Berlin funktionierten sie hervorragend, in Teilen Sachsens nicht. Das ist natürlich bitter.

Kolleg*innen aus anderen Social-Media-Agenturen haben mir zudem von früheren Workarounds berichtet. So ließen sich in Ads bestimmte interessenbasierte Zielgruppen ausschließen, wie etwa Personen mit Affinitäten zu rechten Bands. Doch diese Targeting-Möglichkeiten wurden zuletzt deutlich eingeschränkt. Start-ups stehen damit oft schutzloser da als noch vor wenigen Jahren.

Zwischen Haltung und Algorithmus

Auf den gesellschaftlichen Rechtsruck haben junge Unternehmen leider nur einen kleinen Einfluss. Sehr wohl können sie allerdings beeinflussen, wie sie auf ihren Social-Media-Kanälen damit umgehen. Leitlinie sollten folgende Punkte sein:

  • Moderation professionalisieren: Klare Prozesse etablieren, statt situativer Reaktionen.
  • Darsteller*innen schützen: Sowohl psychologisch als auch operativ.
  • Haltung zeigen: Sichtbar, konsistent, nicht nur in Krisenmomenten.
  • Community stärken: Echte Unterstützer:innen aktivieren, statt nur Reichweite zu jagen.
  • Reichweite nicht über Werte stellen: Selbst wenn Hass kurzfristig Performance bringt.

Die Entwicklung bei TikTok und Co. zeigt, dass Kommentarspalten längst keine Nebensache mehr sind. Sie sind Diskursräume – und damit politische Räume. Start-ups, die auf Social Media vertreten sind, müssen sich darüber klar sein. Sie sind nicht mehr nur reine Marketingkanäle, sondern moderieren öffentliche Debatten. Und das ist eine Verantwortung, die sie nicht an den Algorithmus delegieren dürfen.

Der Autor Mirco Gluch ist Gründer der Boutique Social Media-Beratung Piggyback, KI-Experte und Macher des Onlinekurses „AI für Social Media".

11 Mio. Euro für Physical AI: Wie FLEXOO Hardware zum Sprechen bringen will

Das Heidelberger Sensorik-Start-up FLEXOO hat eine Series-A-Finanzierungsrunde über 11 Mio. Euro erfolgreich abgeschlossen. Mit dem Kapital plant FLEXOO die internationale Skalierung seiner Sensorplattform für Batterie-Speichersysteme und die Automobilindustrie.

Vom Forschungsprojekt zum DeepTech-Unternehmen

Hinter dem ambitionierten Vorhaben steht ein fünfköpfiges Gründerteam, das akademisches Know-how mit industriellem Anspruch verbinden will. Geführt wird das Heidelberger Unternehmen von Founding CEO und Managing Director Dr. Michael Kröger. Zum Gründungsteam gehören zudem Sieer Angar (Chairman of the Board), Dr. Mathieu Turbiez (Chief Revenue Officer), Dr. Jean-Charles Flores (Director Market Development North America) und Dr. Janusz Schinke (Managing Director).

Diese starke akademische Prägung ist typisch für DeepTech-Ausgründungen. Das Start-up hat seine technologischen Wurzeln im hochspezialisierten Umfeld der gedruckten Elektronik. Um diese Expertise zu kommerzialisieren, wurde die FLEXOO GmbH im Jahr 2024 offiziell als eigenständiges Spin-off des renommierten Heidelberger InnovationLab gegründet. Die Bündelung dieser Kompetenzen in einer eigenständigen Gesellschaft war der strategische Schritt, um eine Technologiearchitektur, die laut Investorenangaben von der Forschung bis zur Markteinführung validiert wurde, nun auf die globale industrielle Skalierung zu trimmen.

Das Versprechen: Hochauflösende Daten aus dem Inneren der Maschine

FLEXOO adressiert eine reale Schwachstelle aktueller KI-Systeme: KI-Algorithmen benötigen hochauflösende Echtzeit-Daten über den physikalischen Zustand von Hardware. Das Gründerteam hat dafür eine Sensorplattform entwickelt, die ultradünne, flexibel formbare Sensoren mit Edge-AI kombiniert.

Die Kerninnovation liegt laut Unternehmensangaben im Formfaktor: Die Sensoren sind unter 200 Mikrometer dünn und sollen sich nahtlos in nahezu jede Oberfläche oder Struktur integrieren lassen. Im Bereich der Batterietechnologie liefert dies auf dem Papier messbare Mehrwerte: FLEXOO gibt an, dass Validierungen mit führenden Batterieherstellern Kapazitätsgewinne von bis zu 5 Prozent zeigen. Dies soll komplett ohne Änderungen am Batteriezell-Design oder der bestehenden Zellchemie gelingen. Zudem sollen durch die direkten Daten auf Zellebene Frühwarnsysteme etabliert werden, die drohende Batterieausfälle proaktiv verhindern. Solche „bis zu“-Werte sind in frühen Validierungsphasen stets mit Vorsicht zu genießen, bis sie sich in der industriellen Massenanwendung verlässlich reproduzieren lassen.

Die Produktion als eigentlicher Hebel

Der entscheidende Überlebensfaktor für ein Hardware-Start-up ist die Skalierbarkeit der Produktion. FLEXOO setzt hier auf eine hochvolumige Druckfertigung, die nahezu jede Geometrie ermöglichen soll. Die Sensoren werden nicht aufwendig einzeln zusammengebaut, sondern gedruckt. Das ermöglicht laut Aussage der Investoren eine Kostenstruktur, die den breiten industriellen Einsatz erst realistisch macht und ein überzeugendes Preis-Leistungs-Verhältnis liefert.

Das Start-up reklamiert dabei selbstbewusst für sich, den weltweit präzisesten taktilen Sensor zu produzieren. Ob das patentierte Verfahren und die Fertigung „Made in Germany“ diesen technologischen Vorsprung gegen die immense Konkurrenz langfristig verteidigen können, wird sich letztlich in den harten Preisverhandlungen der Zulieferer-Industrie zeigen.

Die Realität der Skalierung: Verträge statt Prototypen

Trotz des starken technologischen Fundaments steht FLEXOO nun vor der klassischen Herkulesaufgabe für Hardware-Start-ups: Die Überführung von vielversprechenden Prototypen in ein profitables Seriengeschäft. Mit dem Abschluss der Series-A-Runde fokussiert sich das Unternehmen 2026 richtigerweise auf den Ausbau des internationalen Vertriebs und die Sicherung strategisch relevanter Lieferverträge. Zudem ist die Bereitstellung von Prototypen der Physical-AI-Plattform an Entwicklungspartner fest eingeplant.

Die Zusammensetzung der Investoren ist hierbei ein strategischer Vorteil: eCAPITAL bringt Erfahrung bei Deep-Tech-Unternehmen und einen klaren Fokus auf ClimateTech sowie IoT mit. AUMOVIO wiederum kann über seine Start-up-Einheit co-pace direkten Zugang zur globalen Automobil- und Mobilitätsindustrie bieten.

Dass FLEXOO parallel Einsatzfelder in stark wachsenden Zukunftsbereichen wie der humanoiden Robotik ins Auge fasst, deutet das enorme Potenzial der Sensor-Plattform an. Ob aus diesem Versprechen jedoch wirklich ein globaler Standard für Physical AI wird, müssen erst die harten Serien-Validierungen der nächsten Jahre zeigen. "Hardware is hard" – das gilt auch für smarte, gedruckte Sensoren aus Heidelberg.

10 Mio. Euro Series-A: VoiceLine transformiert den Außendienst mit Sprach-KI

Das 2020 von Dr. Nicolas Höflinger und Sebastian Pinkas gegründete Münchner Start-up VoiceLine hat eine Finanzierungsrunde über 10 Mio. Euro abgeschlossen, um seine Voice-AI-Plattform für Frontline-Teams international zu skalieren.

Angeführt von Alstin Capital und Peak, unterstützt durch Scalehouse Capital, Venture Stars und NAP, setzt das Unternehmen auf ein massives Umsatzwachstum von 1.000 % gegenüber dem Vorjahr.

Fokus auf den „Motor“ der B2B-Wirtschaft

Die Gründer Dr. Nicolas Höflinger und Sebastian Pinkas haben VoiceLine als Lösung für ein zentrales Problem im Arbeitsalltag von Außendienst-Teams positioniert. Während diese Teams oft den Großteil des Tages beim Kunden oder auf Reisen verbringen, bleibt die CRM-Pflege und Dokumentation häufig auf der Strecke oder wird auf den späten Abend verschoben. Dies führt zu unvollständigen Berichten und dem Verlust wertvoller Marktinformationen. VoiceLine löst dies mit einem KI-Assistenten, der Sprachnotizen direkt in strukturierte CRM-Einträge, Besuchsberichte und Folgeaufgaben überführt.

Messbare Ergebnisse bei Industrie-Größen

Dass der technologische Ansatz funktioniert, belegen die Zahlen bei namhaften Kunden wie DACHSER, ABB, Knauf und KSB. Laut Unternehmensangaben sparen Vertriebsmitarbeiter durch die Lösung rund fünf Stunden pro Woche an administrativem Aufwand ein. Die Datenqualität aus dem Feld steigt um bis zu 400 %, während die Implementierung durch eine proprietäre Engine oft innerhalb weniger Tage abgeschlossen ist. Andreas Schenk, Partner bei Alstin Capital, betont, dass VoiceLine Sprach-KI damit zum echten „Produktivitäts-Hebel“ für mobile Teams macht.

Strategische Expansion und massives Team-Wachstum

Mit dem frischen Kapital plant VoiceLine, die Mitarbeiterzahl am Hauptsitz in München noch in diesem Jahr mehr als zu verdoppeln. Neben der internationalen Expansion soll der Fokus verstärkt auf Branchen wie Pharma, Medtech sowie Versicherungen und Finanzdienstleistungen ausgeweitet werden. CEO Nicolas Höflinger sieht in der Series-A den entscheidenden Meilenstein, um VoiceLine europaweit als Standard-Schnittstelle für Frontline-Organisationen zu etablieren.

Verantwortung ohne Geländer

Serie: Führen im Start-up, Teil 2: Warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind.

Ein Start-up steht vor einem Richtungswechsel. Das Produkt performt solide, aber nicht stark genug für die nächste Finanzierungsrunde. Der Lead-Investor empfiehlt einen klaren Pivot. Im Team gibt es Widerstand. Einige sehen das Risiko, andere fürchten den Stillstand. Es wird diskutiert. Analysen werden geteilt. Szenarien durchgerechnet. Und doch wissen alle: Am Ende wird eine Person entscheiden.

Genau hier zeigt sich die besondere Qualität von Führung im Start-up – und ihre besondere Belastung.

Einsamkeit ist keine Stimmung – sie ist Struktur

Von außen wirken junge Unternehmen kommunikativ dicht. Slack-Channels laufen permanent. Daily-Stand-ups strukturieren den Tag. Investor*innen, Mentor*innen und Berater*innen sind eingebunden. Und dennoch berichten viele Gründer*innen von einem Gefühl, das sie selbst überrascht: innerer Isolation.

Diese Einsamkeit ist selten sozial. Sie ist strukturell.

In der Frühphase ist Verantwortung extrem konzentriert. Anders als in gewachsenen Organisationen gibt es keine Gremien, die Entscheidungen kollektiv tragen. Keine etablierten Hierarchieebenen, die Verantwortung verteilen. Kein operatives Korrektiv, das Last abfedert.

Es gibt Austausch. Aber es gibt kein Geländer.

Wie Verantwortung Wahrnehmung verschiebt

Forschung zur Entscheidungspsychologie zeigt seit Jahren: Wer sich als allein verantwortlich erlebt, bewertet Risiken anders. Mit wachsender wahrgenommener Verantwortung verschieben sich Maßstäbe – oft unbemerkt.

Risiken werden entweder überhöht oder unterschätzt. Kontrolle nimmt zu. Widerspruch fühlt sich schneller bedrohlich an. Nicht aus Arroganz, sondern aus Schutz.

Der/die Gründer*in weiß: Wenn es schiefgeht, wird nicht das Team zitiert. Sondern er bzw. sie.

Das paradoxe Umfeld des Gründens

Start-ups sind laut, schnell, vernetzt. Und dennoch entsteht häufig ein innerer Rückzug.

Warum? Weil Gründer*innen früh lernen, Unsicherheit dosiert zu zeigen. Zu viel Zweifel kann das Team verunsichern. Zu viel Offenheit gegenüber Investor*innen kann als Führungsschwäche interpretiert werden. Zu viel Zögern wirkt im Markt riskant.

Also wird gefiltert. Man teilt Zahlen, aber nicht immer Ambivalenz. Man diskutiert Optionen, aber nicht immer Unsicherheit.

So entsteht Distanz. Nicht geplant. Aber wirksam.

Wenn fehlende Geländer zu Mustern werden

Ohne echtes Korrektiv entwickeln sich typische Dynamiken. Manche Gründer*innen erhöhen ihre operative Kontrolle. Sie involvieren sich in jede Entscheidung, sichern Details doppelt ab, korrigieren Prozesse selbst. Kurzfristig entsteht Stabilität. Langfristig Abhängigkeit.

Andere beschleunigen Entscheidungen, um Druck zu reduzieren. Schnelligkeit ersetzt Reflexion. Das wirkt entschlossen – kann strategisch jedoch inkonsistent werden.

Wieder andere ziehen sich emotional zurück, um handlungsfähig zu bleiben. Sie funktionieren. Aber sie teilen weniger.

All diese Reaktionen sind nachvollziehbar. Und sie verändern das System.

Widerspruch wird vorsichtiger. Kommunikation strategischer. Nähe funktionaler.

Warum Investor*innen kein Geländer sind

Investor*innen sind zentrale Partner*innen. Ihr Fokus liegt naturgemäß auf Wachstum, Skalierung und Rendite. Das ist kein Vorwurf, sondern ihr Mandat.

Ein Geländer im strukturellen Sinn erfüllt jedoch eine andere Funktion: Es sichert die Qualität von Führung – unabhängig von kurzfristiger Performance.

  • Ein unabhängiger Beirat mit klarer Rolle.
  • Ein Sparringspartner ohne operative Interessen.
  • Ein(e) Co-Founder*in, der/die nicht nur loyal, sondern widerspruchsfähig ist.

Nicht zusätzliche Beratung, sondern echte Resonanz.

Der wirtschaftliche Preis von Isolation

Isolation wirkt nicht laut. Sie wirkt kumulativ. Fehleinschätzungen bleiben länger unentdeckt.
Konflikte werden später adressiert. Entscheidungsprozesse werden intransparenter. Vertrauen verschiebt sich.

Viele Gründungskonflikte und spätere Führungskrisen entstehen nicht aus mangelnder Kompetenz, sondern aus nicht geteiltem Druck.

Einsamkeit in der Führung ist kein persönliches Drama. Sie ist ein betriebswirtschaftlicher Risikofaktor.

Ein Perspektivwechsel

Autonomie ist eine Stärke von Gründer*innen. Sie ermöglicht Geschwindigkeit, Mut und Innovation. Doch Autonomie ohne Korrektiv wird zur Belastung.

Die entscheidende Frage lautet nicht, wie viel Verantwortung ein(e) Gründer*in tragen kann, sondern wie bewusst er/sie sie reflektiert.

Wer dauerhaft ohne Geländer führt, trifft Entscheidungen irgendwann nicht mehr strategisch, sondern aus innerem Überlebensmodus. Und das ist selten eine tragfähige Grundlage für nachhaltiges Wachstum.

Tipp zum Weiterlesen

Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e

Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.

Gründer*in der Woche: syntik – High-Tech im Herzen der Industrie

Wie Mert Erdoğan mit syntik den Mittelstand fit für die Zukunft machen will, indem er Unternehmen ganzheitlich von der KI-Strategie über das Mitarbeitendentraining bis hin zur technischen Umsetzung individueller Softwarelösungen begleitet.

Vom sicheren Management-Sessel in das Wagnis der Selbständigkeit – diesen Weg wählen viele, doch nur wenige tun es mit einem so klaren Fokus auf die Old Economy. Mert Erdoğan, selbst Alumni der Universität Siegen, sah jahrelang eine wachsende Kluft: Auf der einen Seite die rasanten Fortschritte in der KI-Entwicklung, auf der anderen Seite ein deutscher Mittelstand, der oft noch mit Excel-Tabellen und Papierbergen kämpft.

„Ich habe in vielen Projekten gesehen, wie groß das Potenzial von KI ist. Vor allem in Bereichen, in denen heute noch unnötig viele repetitive Aufgaben manuell erledigt werden. Das Frustrierende war, dass diese Use Cases echten Mehrwert schaffen könnten, aber gerade im Mittelstand fehlt oft das Know-how, sie technisch und wirtschaftlich richtig einzuordnen. Genau da wollte ich ansetzen“, sagt Mert. Seine Antwort darauf ist syntik.

Der Dolmetscher zwischen zwei Welten

Das Problem vieler Traditionsunternehmen ist nicht der Unwille zur Innovation, sondern die Überforderung durch die Komplexität. Genau hier setzt das Geschäftsmodell von syntik an. Das 2025 im Siegerland gegründete Start-up versteht sich weniger als klassische IT-Beratung, sondern vielmehr als Übersetzer und Brückenbauer.

„Viele haben Angst vor großen KI-Investitionen ohne entsprechendem ROI und der Intransparenz dahinter. Wir übersetzen das Thema in verständliche, wirtschaftlich greifbare Schritte. Was muss individuell entwickelt werden, wie viel kostet dies, gibt es ggf. Fertige Lösungen. So machen wir aus Unsicherheit konkrete Handlungsmöglichkeiten“, so Mert.

Die Philosophie ist simpel: Technologie muss demokratisiert werden. Syntik holt die Unternehmen dort ab, wo sie stehen. Das Portfolio ruht dabei auf drei Säulen: Einer strategischen Beratung, die echte Anwendungsfälle jenseits von Spielereien identifiziert, einem umfangreichen Trainingsprogramm, das den Mitarbeitenden die Angst vor der "Black Box" KI nimmt, und schließlich der harten technischen Umsetzung individueller Softwarelösungen.

Alltagstauglichkeit statt KI-Schnickschnack

In einer Branche, die oft von Buzzwords und abstrakten Visionen dominiert wird, wirkt der Ansatz der Siegener erfrischend pragmatisch. Während etablierte IT-Riesen und schicke KI-Boutiquen aus den Metropolen sich oft auf DAX-Konzerne stürzen und entsprechende Preisschilder aufrufen, lässt syntik diese Nische bewusst links liegen.

Das Alleinstellungsmerkmal liegt in der kulturellen Passung. Die Macher hinter syntik treten nicht als abgehobene Tech-Evangelisten auf, sondern als Partner auf Augenhöhe. Sie sprechen die Sprache der Ingenieur*innen und Kaufleute im Mittelstand.

„Wir kommen nicht mit besonderen Folien, sondern mit echtem Verständnis für die Herausforderungen im Alltag. Ich kenne den Mittelstand, weil ich selbst aus dieser Welt komme. Mein Vater arbeitet sei über 20 Jahren bei den Deutschen Edelstahlwerke (DEW).  Wir reden nicht über Visionen, wir reden über Lösungen, die heute schon etwas besser machen in den kaufmännischen Prozessen“, so Mert.

Dieser „Siegerländer Pragmatismus“ kommt an. Statt theoretischer Powerpoints liefert das Team Lösungen, die funktionieren – sei es die Automatisierung der Angebotserstellung oder die Optimierung der Materialdisposition. Es geht darum, KI vom abstrakten Gespenst zum nützlichen Werkzeug am Fließband oder im Büro zu machen.

„Unsere Kunden sagen oft ‚Das ist kein KI-Schnickschnack, das hilft uns wirklich im Alltag.‘ Und genau das ist unser Anspruch, Lösungen zu liefern, die sofort spürbar etwas verbessern und Kapazitäten für relevante Aufgaben frei werden“, so Mert.

Bootstrapping statt Venture Capital

Auch bei der Finanzierung bleibt Mert Erdoğan seiner Linie treu. Statt sich frühzeitig von Venture-Capital-Gebenden abhängig zu machen und Anteile gegen „schnelles Geld“ zu tauschen, wählte syntik den Weg des Bootstrappings. Das Unternehmen wächst organisch aus dem eigenen Cashflow.

Dieser Weg ist steiniger und erfordert mehr Geduld, signalisiert den Kund*innen aber auch Stabilität: Hier wird kein Geld verbrannt, um künstliche Wachstumsziele zu erreichen. Das Stammkapital der GmbH wurde klassisch eingebracht, das Risiko liegt beim Gründer.

 „Wir wollen nur unseren Kunden verpflichtet sein, nicht irgendwelchen Wachstumsverpflichtungen von Investoren. Unabhängigkeit heißt für uns, dass wir selbst entscheiden, was sinnvoll ist. Und wir wachsen nur dort, wo es echten Mehrwert bringt. Wenn wir bestimmte KI-Produkte entsprechend etabliert haben und den Bedarf am stärksten an bestimmten Stellen sehen, können wir ggf. über Investoren sprechen“, betont der CEO.

Dieses Vorgehen schafft Vertrauen gerade beim Mittelstand, der oft skeptisch gegenüber fremdfinanzierten Start-up-Blasen ist.

Der Blick nach vorn: Fokus auf die Schwergewichte

Trotz der jungen Firmengeschichte – die Gründung erfolgte erst im Sommer 2025 – kann das Team bereits auf Referenzen aus über einem Dutzend Branchen verweisen. Im Gespräch mit dem Alumniverbund der Uni Siegen machte Erdoğan deutlich, wohin die Reise gehen soll: Der Fokus verschiebt sich zunehmend auf stark regulierte und dokumentationsintensive Sektoren wie Pharma, Chemie und Automotive.

Gerade in diesen Bereichen, wo Fehler teuer sind und Prozesse strikten Normen unterliegen, sieht der Gründer das größte Potenzial für KI-gestützte Effizienzsteigerung. Damit besetzt das Start-up seinen „Sweet Spot“ im Markt: Syntik agiert agiler und nahbarer als die nicht selten „trägen Tanker der Großberatungen“, ist aber gleichzeitig strategisch weitsichtiger als reine Software-Entwickler, die oft nur Code liefern, ohne die komplexen Prozesse des Mittelstands wirklich zu verstehen.

„Wir geben uns nicht mit Oberflächenlösungen zufrieden. Unser Ziel ist es, KI dort nutzbar zu machen, wo sie bisher scheitert. In kritischen Prozessen, unter realen Bedingungen mit echten Ergebnissen. Beim automatisierten Abgleich von Ausschreibungen, der strukturierten Verarbeitung technischer Anfragen, präzisen Forecasts in der Instandhaltung oder intelligenten Assistenzsystemen in Form von Chatbots für Normen und Richtlinien mit entsprechender Logik, Aktionen in Systemen und Mehrsprachigkeit“, so Mert.

Langfristig will das syntik den Schritt vom reinen Dienstleister zum Produktanbieter vollziehen. Geplant ist die Entwicklung standardisierter KI-Module, die sich wie Bausteine in verschiedene Unternehmenslandschaften integrieren lassen.

Mit syntik beweist Mert Erdoğan einmal mehr, dass Innovation nicht zwangsläufig aus den Metropolen kommen muss. Manchmal entsteht sie genau dort, wo sie am dringendsten gebraucht wird: Mitten im Maschinenraum der deutschen Wirtschaft.

Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen

Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.

Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.

Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?

Agilität als Superkraft – aber Prototypen reichen nicht

Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.

Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.

Das Fundament: Die Systemarchitektur entscheidet

Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.

Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.

Security by Design: Sicherheit lässt sich nicht nachrüsten

Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.

Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.

Interoperabilität als Schlüssel zum Teamplay

Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.

Vom Zulieferer zum echten Systempartner

Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.

Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.

Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.

ewigbyte: Datenspeicher für die Ewigkeit?

Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.

Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.

In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.

Der Markt: Ein schlafender Riese erwacht

Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.

Lasergravur statt magnetischer Ladung: So funktioniert es

Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.

Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.

Vom Hardware-Verkauf zum „Storage-as-a-Service“

Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.

David gegen Goliath: Das Rennen um das Glas

Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.

Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.

Die technologischen Nadelöhre

Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.

Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).

Digitale Souveränität als Verkaufsargument

Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.

Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.

Medizinal-Cannabis: Zwischen Wachstumsschub und regulatorischer Neujustierung

Zwischen Boom und strengeren Regeln: Der Markt für Medizinal-Cannabis steht nach einem Rekordjahr am Scheideweg. Investoren und Patienten blicken gespannt auf mögliche Gesetzesänderungen für 2026.

2025 war das erste vollständige Geschäftsjahr nach Inkrafttreten des Medizinal-Cannabisgesetzes im April 2024 – und damit ein echter Praxistest für den deutschen Markt. Mit der Entkopplung von Cannabis aus dem Betäubungsmittelrecht und der Vereinfachung der Verschreibung über Telemedizinplattformen änderten sich die Rahmenbedingungen spürbar. Die Effekte ließen nicht lange auf sich warten und resultierten in steigende Verordnungszahlen, stark wachsende Importmengen und einem beschleunigten Ausbau von Versorgungsstrukturen. Doch wie geht es weiter?

Ein Markt im ersten Jahr nach der Reform

Die Importzahlen verdeutlichen die Dynamik. Während 2023 noch rund 30 Tonnen medizinisches Cannabis nach Deutschland eingeführt wurden, entwickelten sich die Zahlen anschließend immer rasanter. Das Bundesministerium für Gesundheit vermeldete im ersten Halbjahr 2025 einen Anstieg der Importe von mehr als 400 Prozent, von rund 19 auf 80 Tonnen. Hochgerechnet auf das Gesamtjahr dürfte das Volumen jenseits der 140-Tonnen-Marke liegen. Diese Änderungen haben einen aufstrebenden Markt geschaffen, wodurch sich Deutschland zum größten Einzelmarkt für Medizinal-Cannabis in Europa entwickelt hat.

Parallel dazu stieg auch die Zahl der ausgestellten Rezepte deutlich an. Schätzungen gehen inzwischen von mehreren Millionen Patientinnen und Patienten aus, die Cannabis auf ärztliche Verordnung nutzen. Das Marktvolumen wird für 2025 auf bis zu eine Milliarde Euro geschätzt.

Ausbau der Strukturen und steigende Professionalisierung

Für viele Unternehmen der Branche war 2025 ein Jahr des Ausbaus. Investiert wurde in GMP-konforme Prozesse (Good Manufacturing Practice), Lieferkettenstabilität, Qualitätssicherung und digitale Patientensteuerung. Deutschland bleibt stark importabhängig, die inländische Produktion deckt weiterhin nur einen begrenzten Teil des Bedarfs. Internationale Partnerschaften mit Produzenten in Kanada, Portugal oder anderen EU-Staaten sind daher weiterhin zentraler Bestandteil der Marktstruktur.

Politische Reaktionen auf das Wachstum

Mit der steigenden Bedeutung des Marktes wächst auch die politische Aufmerksamkeit, die Debatte rund um die Teillegalisierung polarisiert und spaltet Meinungen. Vertreter der CDU äußerten frühzeitig Bedenken, dass vereinfachte Verschreibungswege zu Fehlentwicklungen führen könnten. Besonders digitale Plattformmodelle bzw. Telemedizinanbieter mit Sitz im Ausland geraten dabei in den Fokus der Kritik.

Im Herbst 2025 wurde von Warken & Co. ein Gesetzeswurf zur Änderung des Medizinal-Cannabisgesetzes vorgestellt. Dieser sieht unter anderem strengere Vorgaben für telemedizinische Verschreibungen vor, genauer gesagt einen verpflichtenden persönlichen Arztkontakt sowie ein Versandverbot über Telemedizinanbieter. Ziel ist es, medizinische Standards zu präzisieren und potenziellen Missbrauch zu verhindern. Die politische Argumentation verweist auf die stark gestiegenen Importzahlen und die zunehmende Zahl digital vermittelter Rezepte. Gleichzeitig wird betont, dass Cannabis als medizinische Therapie klar vom Freizeitkonsum abgegrenzt bleiben müsse und sich dabei viele Freizeitkonsumenten als Patienten ausgeben.

Innerhalb der Branche wird diese Entwicklung differenziert bewertet. Sascha Mielcarek, CEO der Canify AG, ordnet den Gesetzentwurf nüchtern ein: „Der Kabinettsentwurf zur Änderung des MedCanG schießt mit Kanonen auf Spatzen. Wir haben ein wachsendes Problem mit der missbräuchlichen Anwendung von Opioiden, Benzodiazepin und anderen verschreibungspflichtigen Medikamenten. Die Therapie mit Cannabis bietet in vielen Fällen eine nebenwirkungsärmere Alternative und mit dem Gesetzentwurf würde der Zugriff genau darauf erschwert werden. Medizinisches Cannabis eignet sich nicht, einen Präzedenzfall zu schaffen. Der Gesetzentwurf ist kein Beitrag zur Patientensicherheit.“

Unabhängig von der Bewertung einzelner Maßnahmen zeigt sich vor allem, dass der regulatorische Rahmen weiterhin in Bewegung ist. Für Unternehmen bedeutet das eine Phase erhöhter Unsicherheit bei gleichzeitig stabiler Nachfrage. Experten befürchten, dass der Markt um die Hälfte einbrechen könnte, sollte ein physischer, persönlicher Arztkontakt Wirklichkeit werden.

Was bedeutet das für Start-ups und Investoren?

Für Gründer und Kapitalgeber bleibt der Markt grundsätzlich attraktiv. Das Wachstum der vergangenen zwei Jahre zeigt eine robuste Nachfrage. Gleichzeitig sind die Eintrittsbarrieren hoch. Wer im medizinischen Cannabissektor aktiv werden möchte, benötigt regulatorisches Know-how, belastbare Lieferketten, medizinische Anbindung und Kapital für Qualitätssicherung und Compliance.

Gerade diese Anforderungen wirken jedoch auch stabilisierend. Der Markt ist stark reguliert, professionell organisiert und eingebettet in bestehende Gesundheitsstrukturen. Für Investoren stellt sich daher weniger die Frage nach dem Potenzial als nach der Planbarkeit. Politische Anpassungen wirken sich unmittelbar auf Geschäftsmodelle, Bewertungen und Expansionsstrategien aus.

Ausblick auf 2026

Mit Blick auf das neue Jahr zeichnet sich ein Szenario der Neujustierung ab. Möglich ist eine Konsolidierung, bei der sich professionelle Anbieter weiter etablieren und regulatorische Klarstellungen für mehr Stabilität sorgen. Ebenso denkbar sind weitere gesetzliche Anpassungen, die das Wachstum stärker strukturieren. 2026 wird zeigen, unter welchen regulatorischen Bedingungen sich dieser Markt weiterentwickelt – und wie attraktiv er für Gründer und Investoren langfristig bleibt.

Seed-Runde: Leipziger HRTech clarait erhält über 1,5 Mio. Euro

Das 2023 von Johannes Bellmann, Miriam Amin und Thilo Haase gegründete Start-up clarait digitalisiert einen der letzten analogen Bereiche im Unternehmen: die Zusammenarbeit zwischen Betriebsräten und HR.

Die clarait GmbH hat den Abschluss einer Seed-Finanzierungsrunde bekanntgegeben und sichert sich Kapital in Höhe von über 1,5 Millionen Euro. Lead-Investor der Runde ist der TGFS Technologiegründerfonds Sachsen, der einen siebenstelligen Betrag investiert. Als Co-Investor beteiligt sich der HR Angels Club, ein europaweites Netzwerk aus erfahrenen HR-Führungskräften und Investoren.

Marktlücke: Der „White Spot“ zwischen HR- und Legal-Tech

Während klassische HR-Prozesse wie Payroll oder Recruiting längst digitalisiert sind, gilt der Bereich der „Labour Relations“ (betriebliche Mitbestimmung) als einer der letzten kaum erschlossenen Märkte. In vielen Unternehmen dominiert hier noch der „Status Quo“ – ein Vorgehen, das angesichts strenger Compliance-Vorgaben und der DSGVO zunehmend riskant wird.

Clarait positioniert sich hier mit zwei verknüpften SaaS-Lösungen:

  • BRbase unterstützt Betriebsräte bei der strukturierten Organisation von Sitzungen, Beschlüssen und Mitbestimmungsprozessen.
  • HRflows liefert der Arbeitgeberseite juristisch geprüfte Workflows für mitbestimmungspflichtige Maßnahmen.

Wettbewerb & USP: Brückenbauer statt Insellösung

Im Wettbewerbsumfeld grenzt sich das Leipziger Start-up deutlich ab. Während etablierte Anbieter oft reine Insellösungen anbieten, verfolgt clarait einen Plattform-Ansatz. Ziel ist es, den Medienbruch zwischen Personalabteilung und Gremium zu beenden und beide Seiten auf einer Infrastruktur zu verbinden.

Das Start-up adressiert damit einen wachsenden Markt, der durch steigende regulatorische Anforderungen und den Trend zu revisionssicheren Workflows getrieben wird. Zu den Kunden zählen bereits DAX-40- und Fortune-500-Unternehmen.

Der „Perfect Fit“: Praxis trifft Prozesslogik

Ein wesentlicher Faktor für das Investment dürfte die Komposition des Gründerteams sein, das die nötige Neutralität für dieses politisch sensible Thema mitbringt:

  • Johannes Bellmann (CEO) vereint die Perspektiven beider Verhandlungspartner und versteht das Geschäftsmodell sowie den Markt der betrieblichen Mitbestimmung tiefgehend.
  • Thilo Haase (CPO) verantwortet die inhaltliche Ausgestaltung der Plattform.
  • Miriam Amin (CTO) vervollständigt das Trio als technische Mitgründerin.

„Smart Money“ und KI-Pläne

Neben dem Kapital des TGFS bringt vor allem der Einstieg des HR Angels Club strategisches Gewicht. Das Netzwerk gilt als „Smart Money“ der HR-Tech-Szene und bietet Zugang zu Entscheidern in Personal- und Organisationsfunktionen. Sören Schuster, Geschäftsführer des TGFS, sieht in der Gremienverwaltung einen „bislang nur unzureichend digitalisierten Bereich“ und bescheinigt dem Team das Potenzial zum Qualitätsführer.

Das frische Kapital soll primär in den Ausbau der Vertriebsorganisation sowie die Weiterentwicklung der Software fließen. Geplant sind unter anderem die Integration von KI-gestützten Assistenzfunktionen sowie die Vorbereitung der Internationalisierung, die zunächst im deutschsprachigen Raum erfolgen soll.

Customer-Support-ROI 2026: Warum Ticket-Automatisierung allein nicht ausreicht

Im Jahr 2026 stehen viele Führungskräfte vor einem echten Paradox: Die klassischen Kennzahlen im Customer Support erreichen Höchststände – und dennoch bleibt der Zusammenhang mit messbarem wirtschaftlichem Nutzen oft unklar.

Das Problem liegt nicht darin, dass gängige Automatisierungsansätze grundsätzlich nicht funktionieren. Vielmehr reicht es nicht aus, lediglich Tickets zu automatisieren, wenn Customer Support tatsächlich einen belastbaren ROI liefern soll. Der wahre Wert von Support liegt heute nicht mehr in der massenhaften Bearbeitung von Anfragen, sondern darin, Probleme frühzeitig zu verhindern, bevor sie sich zu messbaren wirtschaftlichen Verlusten entwickeln.

Warum sich Support-ROI 2026 schwerer belegen lässt

Moderne Support-Organisationen entwickeln sich zunehmend hin zu hybriden Modellen, in denen KI und menschliche Agents zusammenarbeiten. Eine Gartner-Umfrage zeigt: 95 % der Customer-Service-Verantwortlichen planen, auch künftig menschliche Agents parallel zu KI einzusetzen. Hybride Setups sind damit längst auf dem Weg zum Standard.

In der Praxis übernehmen KI-Systeme heute Routineanfragen, während Menschen komplexe oder kritische Fälle bearbeiten. Mit dieser veränderten Arbeitslogik verlieren klassische Kennzahlen wie Kosten pro Ticket, durchschnittliche Bearbeitungszeit oder Automatisierungsquote an Aussagekraft. In manchen Fällen verschleiern sie den tatsächlichen Wert von Support sogar.

Das führt dazu, dass Führungsteams häufig Folgendes beobachten:

  • steigende Automatisierungsquoten bei stagnierenden Einsparungen,
  • verbesserte CSAT-Werte ohne klaren finanziellen Effekt,
  • starke CX- und Effizienzkennzahlen, die sich dennoch nicht in unternehmerische Ergebnisse übersetzen lassen.

Support ist nicht weniger wertvoll geworden. Doch durch den Einsatz von KI sind die Erwartungen gestiegen – und lineares Denken in einzelnen Metriken reicht nicht mehr aus, um den tatsächlichen Beitrag von Support zu bewerten.

Wo sich Customer-Support-ROI tatsächlich zeigt

Der ROI von Customer Support zeigt sich nur selten als „direkt generierter Umsatz“. Stattdessen wird er sichtbar in vermiedenen Verlusten und reduzierten Risiken. Konkret äußert sich das in Veränderungen im Kundenverhalten, etwa durch:

  • weniger Rückerstattungen,
  • geringere Eskalationen,
  • einen Rückgang öffentlicher Beschwerden,
  • sinkendes Abwanderungsrisiko.
  • höheres Vertrauen an entscheidenden Punkten der Customer Journey

Diese Signale entstehen nicht über Nacht. Sie bauen sich über Zeit auf – und werden deshalb in Budgetdiskussionen häufig unterschätzt.

In einem unserer Kundenprojekte (Details aufgrund einer NDA anonymisiert) wurde der Customer Support über einen Zeitraum von zwölf Monaten vollständig neu aufgebaut. Ziel war nicht allein eine schnellere Reaktionszeit, sondern eine frühere und konsistentere Problemlösung entlang der gesamten Customer Journey. Die Ergebnisse waren eindeutig:

  • Rückerstattungsquote von 40 % auf 4 % gesenkt.
  • CSAT-Anstieg von 50 auf 95.
  • NPS-Steigerung von 32 auf 80.
  • Verbesserung der Trustpilot-Bewertung von 3,0 auf 4,7.
  • Erhöhung der Chargeback-Erfolgsquote von 5 % auf 90 % durch ein dediziertes Billing-Team im Support.

Keine dieser Kennzahlen für sich genommen „beweist“ ROI. In ihrer Gesamtheit zeigen sie jedoch, wie Support begann, Ergebnisse zu beeinflussen, die in klassischen CX-Dashboards kaum sichtbar sind: Rückerstattungen gingen zurück, weil Probleme frühzeitig gelöst wurden; öffentliche Bewertungen verbesserten sich, weil weniger Kunden an ihre Belastungsgrenze kamen; Loyalität wuchs, weil Support von Schadensbegrenzung zu echter Bedürfnislösung überging.

Darüber hinaus begann das Team, Kundenanfragen systematisch zu analysieren, um Muster und frühe Reibungspunkte zu identifizieren. Dadurch wurden Abweichungen zwischen angenommener Customer Journey und tatsächlichem Kundenerlebnis sichtbar. Für das Management entstand so eine deutlich belastbarere Grundlage für strategische Entscheidungen. Diese Erkenntnisse führten zu neuen Services, die sich am realen Kundenverhalten orientierten – und damit Wachstum und Umsatz beschleunigten.

So zeigt sich Support-ROI in der Praxis: nicht als einzelne Kennzahl, sondern als Zusammenspiel aus vermiedenen Verlusten, gestärktem Vertrauen und datenbasierten Entscheidungen.

Wie hybrider Support die Wirtschaftlichkeit verändert

Über Jahre hinweg galt Automatisierung als vermeintliche „Wunderlösung“ zur Kostensenkung. Die Logik war simpel: geringere Supportkosten führen automatisch zu höherem ROI. In der Realität ist der Zusammenhang komplexer. Niedrigere Kosten bedeuten nicht automatisch höhere Erträge – insbesondere dann nicht, wenn Automatisierung genau die Mechanismen entfernt, die Verluste verhindern.

Wird Support ausschließlich auf Effizienz optimiert, verschwinden ungelöste Probleme nicht. Sie verlagern sich: in Rückerstattungen, Chargebacks, Abwanderung und öffentliche Beschwerden. Einsparungen tauchen in einer Zeile der GuV auf, während sich der Schaden still im restlichen Unternehmen summiert. Hybrider Support kann diese Gleichung verändern – aber nur, wenn er bewusst gestaltet wird.
Wenn KI im Support richtig eingesetzt wird:

  • lassen sich bis zu 85 % der Anfragen automatisiert bearbeiten,
  • liegt der CSAT rund 15 % höher als in nicht-hybriden Setups,
  • führt KI echte Aktionen aus (Rückerstattungen, Kündigungen, Account-Änderungen) statt nur standardisierte Antworten zu versenden.

In abonnementbasierten Geschäftsmodellen beginnen wir beispielsweise stets mit einer Analyse eingehender Anfragen, um zu verstehen, welche Aktionen sich sicher vollständig automatisieren lassen. Rund 50 % der Kündigungsanfragen sind in der Regel unkompliziert und risikoarm – und damit gut für eine End-to-End-Automatisierung geeignet.

Die verbleibenden Fälle unterscheiden sich deutlich. Etwa ein Viertel der Kündigungsanfragen stammt von frustrierten oder emotional belasteten Kunden. Diese Interaktionen bergen das höchste Risiko für Abwanderung. In gut konzipierten hybriden Setups übernimmt Automatisierung hier die Rolle eines Co-Piloten: Sie kennzeichnet risikoreiche Fälle, eskaliert sie an menschliche Agents und liefert Kontext – während Tonfall, Urteilsvermögen und finale Entscheidungen bewusst beim Menschen bleiben.

Der wirtschaftliche Effekt entsteht dabei nicht durch den Ersatz von Menschen, sondern durch den gezielten Einsatz menschlicher Aufmerksamkeit genau in den Momenten, die Vertrauen und Loyalität tatsächlich entscheiden.

Warum hybrider ROI klassische Messlogik sprengt

In Projekten, in denen First-Level-KI sinnvoll eingeführt wird, sinken die Supportkosten innerhalb eines Jahres typischerweise um 15–25 %, abhängig vom Geschäftsmodell. Gleichzeitig verbessern sich häufig die Erlebniskennzahlen. Diese Kombination ist jedoch kein Selbstläufer – sie entsteht nur dann, wenn Automatisierung Probleme wirklich löst und nicht lediglich verlagert.

Der Haken: Hybrider Support macht ROI schwerer messbar. Klassische ROI-Modelle gehen davon aus, dass Wertschöpfung klar getrennt erfolgt. In Wirklichkeit entsteht der größte Effekt genau dort, wo KI und Menschen zusammenarbeiten: Probleme werden verhindert, Kundenbeziehungen stabilisiert und Loyalität geschützt.

Finanzteams sehen deshalb oft Verbesserungen, können sie aber in bestehenden Scorecards nicht abbilden. Während sich das operative Modell weiterentwickelt hat, ist die Logik der Messung stehen geblieben.

Was Führungskräfte tatsächlich messen sollten

2026 müssen Unternehmen von Aktivitätsmetriken zu Wirkungssignalen wechseln. Ein praxisnaher Ansatz besteht darin, Ergebnisse auf drei Ebenen zu verfolgen:

  1. Finanzielle Risiken und Leckagen: Rückerstattungsquoten, Chargeback-Erfolgsraten, Dispute-Volumen, wiederkehrende Zahlungsprobleme.
  2. Vertrauens- und Reibungssignale: öffentliche Bewertungen, Eskalationstrends, Wiederholungskontakte, Kundenstimmung.
  3. Bindungsindikatoren: Abwanderungsrisikosegmente, Kündigungsmuster und Retention-Ergebnisse (auch wenn die exakte Umsatzzuordnung später erfolgt).

Diese Signale machen Wert früher sichtbar als klassische Umsatzberichte. Sie zeigen, ob Support Verluste verhindert – und genau dort beginnt ROI in der Regel.

Wie sich Support-Budgets rechnen

Support-Budgets scheitern, wenn sie ausschließlich an Ticketvolumen und Headcount ausgerichtet sind. Ein gesünderer Ansatz beginnt mit einer anderen Frage: Wo kostet schlechter Support unser Unternehmen am meisten Geld?

Teams, die echten ROI aus Support erzielen, investieren typischerweise in drei Bereiche:

  1. Präventionsfähigkeit: Support übernimmt Zahlungs- und Abrechnungsthemen, steuert risikoreiche Fälle und etabliert Feedback-Loops zur Ursachenanalyse.
  2. Automatisierung mit Fokus auf Lösung: First-Level-KI erledigt risikoarme Aufgaben vollständig, statt Anfragen lediglich weiterzureichen.
  3. Menschliches Urteilsvermögen dort, wo es zählt: Menschen bearbeiten Hochrisiko-Kündigungen, Eskalationen, emotional sensible Fälle und betreuen besonders wertvolle Kunden.

In diesem Moment hört Support auf, ein Kostenpunkt zu sein, und wird zu einem strategischen Hebel, der Umsatz schützt, Risiken reduziert und mit dem Unternehmen skaliert.

Fazit

2026 entsteht der tatsächliche ROI von Customer Support vor allem dadurch, dass vermeidbare Probleme gar nicht erst zu Umsatzverlusten werden.

Automatisierung ist entscheidend – aber nur dann, wenn sie Probleme tatsächlich löst. Und menschliches Urteilsvermögen sollte gezielt dort eingesetzt werden, wo es Retention, Loyalität und Vertrauen wirklich beeinflusst.

Für Führungskräfte, die sich auf Ergebnisse statt auf Aktivitätskennzahlen konzentrieren, ist Support kein Cost Center mehr. Er ist das, was er schon heute sein sollte: ein Hebel zum Schutz von Umsatz, zur Reduktion von Risiken und zur Nutzung von Kundenverhalten als Grundlage für fundierte unternehmerische Entscheidungen.

Die Autorin Nataliia Onyshkevych ist CEO von EverHelp. Sie arbeitet mit wachsenden Unternehmen aus unterschiedlichen Branchen daran, Customer Support in KI-gestützten Umgebungen skalierbar und wirkungsvoll zu gestalten.