M-sense: Mit Big Data gegen Migräne


44 likes

Die Medizin-App M-sense des Start-ups Newsenselab ermöglicht eine personalisierte Migräne- und Kopfschmerztherapie, ist lernfähig und liefert nebenbei neue Erkenntnisse für die Forschung.

Migräne und Spannungskopfschmerzen zählen zu den am weitesten verbreiteten Krankheiten der Welt: In Deutschland hat rund ein Drittel der Bevölkerung mindestens einmal pro Monat Spannungskopfschmerzen, drei Prozent von ihnen leiden sogar an chronischen Spannungskopfschmerzen.

Die Volkskrankheit Migräne betrifft 12 Prozent der Deutschen, doch nur wenige wissen, was genau passiert: Wenn ein Migräneanfall beginnt, kippt das Gehirn regelrecht um. Das konnte der Physiker und Migräneforscher Dr. rer. nat. Markus Dahlem im Jahr 2013 erstmals mit einem mathematischen Modell belegen: „Für Migräneanfälle sind anhaltende elektrische Entladungen von Nerven verantwortlich. Stress oder andere Auslöser legen einen Schalter im Gehirn um. Dieses Umkippen kann mit Hilfe von mathematischen Algorithmen analysiert, abgebildet und prognostiziert  werden”, so Dahlem.

Analyse und Therapie

Diese Technologie nutzt das von ihm mit gegründete Start-up Newsenselab für die App M-sense: Diese beobachtet Kopfschmerzen, analysiert individuelle Muster und bietet passende nicht-medikamentöse Therapien an. M-sense ist damit die erste digitale Anwendung gegen Migräne und Spannungskopfschmerzen, die sowohl Auslöser von Attacken mithilfe von mathematischen Modellen analysiert, als auch mobile Therapiemethoden bereitstellt. Außerdem ist M-sense die erste Migräne- und Kopfschmerz App, die in Deutschland als Medizinprodukt zertifiziert wurde und somit die CE-Richtlinien für digitale, medizinische Anwendungen einhält.

Als Medizin-App kann M-sense die Eingaben der User selbständig analysieren und, sowie bei der Diagnose und Therapie helfen. Kopfschmerzerkrankungen sind höchst individuell: Jeder hat andere Auslöser, jeder hat andere Schmerzen und nicht jeder spricht auf dieselben Therapiemaßnahmen an. Deshalb notieren Betroffene zunächst potenzielle Auslöser (wie Stress, Koffein, Ernährung, Aktivität u.v.m.) im integrierten Kopfschmerztagebuch. Das Wetter (Temperatur-, Luftfeuchtigkeits- und Luftdruckschwankungen) hält die App automatisch fest.

Zusätzlich werden die Schmerzattacken und deren Symptome festgehalten. Die App berechnet den Einfluss der unterschiedlichen Auslöser auf die Attacken des Nutzers und bietet passende nicht-medikamentöse Therapiemethoden an – ein sogenanntes multimodales Therapieangebot. Dazu gehören Entspannungsverfahren, Bewegungstraining und  gezielte Maßnahmen zur Reduktion von Kopfschmerzauslösern.

Das Therapiemodul M-sense Active bietet außerdem individuell auf die Betroffenen zugeschnittene Wissenslektionen an, und macht sie so zu Experten für ihre eigene Gesundheit. Während einer konkreten Attacke hilft die Akut-Hilfe mit vier verschiedenen nicht-medikamentösen Übungen, die Schmerzen zu lindern. Mit dem Medicheck behalten die Nutzer ihren Medikamentenkonsum im Blick.


Doch das Beste: Die App wird mit zunehmender Lebensdauer immer mehr können. Der selbstlernende Algorithmus geht auf jeden Nutzer individuell ein und verarbeitet die Eingaben zu immer besseren Tipps. Je mehr Eingaben gemacht werden, desto weitreichender sind die Erkenntnisse. Für Mitgründer und Datenwissenschaftler Simon Scholler ist das der spannende Beginn einer neuen Ära: „Die Eingaben helfen uns, die Forschung über Migräne und deren optimale Behandlungswege substantiell voranzubringen und darauf aufbauend eine völlig neue, ganzheitliche Migräne- und Kopfschmerz-Therapie zu entwickeln.“ Das Thema Datensicherheit ist dabei natürlich ebenfalls höchst relevant für das Start-up aus dem Gesundheitssektor. Das M-sense-Team setzt nach eigenen Angaben in allen Prozessen höchste Priorität auf den verantwortungsvollen Umgang mit Nutzerdaten.

Die Meilensteine vom Start bis hin zu 240.000 Usern

Erfunden und entwickelt hat die App ein vierköpfiges Gründerteam, das neben Markus Dahlem aus dem Experten für Mensch-Maschine Interaktion, Stefan Greiner, dem Datenwissenschaftler und Softwareentwickler Simon Scholler sowie dem Systemarchitekten Martin Späth besteht.

Die Idee zur App entstand bereits 2014. Stefan Greiner hatte sich im Studium mit der Schnittstelle von Mensch und Maschine beschäftigt und war fasziniert von den Möglichkeiten neuer Technologien in Bezug auf das Thema Gesundheit. In Gesprächen mit seiner Mitbewohnerin, die seit vielen Jahren unter Migräne leidet, kam er auf den Gedanken, eine passende Softwarelösung zu entwickeln. Kurze Zeit später entstand gemeinsam mit seinem Freund Markus Dahlem, der an der Humboldt- Universität zum Thema Migräne forschte, die Idee für die Migräne-App.

Im November 2015 stand der Prototyp, der in einer zweiwöchigen Studie mit 60 Patienten getestet wurde. Im Januar 2016 wurde die Newsenselab GmbH in Berlin gegründet. Im selben Jahr gewann das Start-up den Eugen Münch-Preis für Netzwerkmedizin. 2017 konnte M-sense mit der Barmer GEK und der Deutschen Telekom AG zwei starke Partner für das betriebliche Gesundheitsmanagement gewinnen.

2018 kam das bereits erwähnte Therapiemodul M-sense Active auf den Markt, welches M-sense in die Sparte Digital Therapeutics hebt. Ende 2019 erhielt das Unternehmen eine Finanzierung (2. Finanzierungsrunde) in siebenstelliger Höhe. Neben den bestehenden Investoren High-Tech Gründerfonds und Think.Health engagieren sich die Noaber Foundation und die IBB Beteiligungsgesellschaft. Das frische Kapital will Newsenselab nutzen, um seine App gemäß neuer Medical Device Regulation-Richtlinien weiterzuentwickeln.

Heute ist die App in Deutschland, Österreich und der Schweiz erhältlich und wird von rund 240.000 Menschen genutzt.

Diese Artikel könnten Sie auch interessieren:

Diese 10 Start-ups bauen an der Zukunft der AgriFood-Branche

Die deutsche Start-up-Landschaft verzeichnete 2025 ein Rekordhoch bei Neugründungen. Doch gerade im AgriFood-Sektor ist der Weg vom Prototyp zum Marktführer steinig. Kapitalintensive Hardware und strenge Regulatorik bremsen viele aus. Der Growth Alliance Accelerator zeigt, wie Gründer*innen diese Hürden überspringen – und präsentiert zehn Akteure, die auf der Erfolgsspur sind.

Es ist ein Paradoxon: Die Nachfrage nach nachhaltigen Lebensmitteln und effizienter Landwirtschaft ist so hoch wie nie, doch für Gründer*innen und junge Unternehmen in der AgriFood-Branche bleibt der Markteintritt ein Hürdenlauf. Während Software-Start-ups oft mit geringem Kapital skalieren, kämpfen Food- und AgTech-Pioniere mit der „Hardware-Falle“. Sie benötigen teure Produktionsanlagen, Labore und müssen langwierige Zulassungsverfahren (z.B. Novel-Food-Verordnung) durchlaufen.

Dennoch ist die Branche im Aufwind: Laut dem Deutschen Startup Monitor und aktuellen Zahlen des Startup-Verbands stiegen die Gründungszahlen 2025 um beachtliche 29 Prozent. Das Kapital ist da, doch es fließt selektiv. Investor*innen suchen heute keine reinen Ideen mehr, sondern validierte Geschäftsmodelle mit technologischem Tiefgang (DeepTech). Genau hier setzte das Finale des Growth Alliance Accelerator 2025 am 28. Januar 2026 in Frankfurt/Main an.

Brückenschlag zwischen Acker und Finanzwelt

Initiiert vom TechQuartier und der Landwirtschaftlichen Rentenbank, hat sich der Accelerator als Schmiede für die „Scale-up“-Phase etabliert. Vier Monate lang wurden zehn Start-ups, die bereits eine Nutzer*innenbasis vorweisen konnten, fit für die nächste Finanzierungsrunde gemacht.

Das Programm adressierte genau die Pain Points der Branche: Verhandlungstaktik, Rechtsfragen und vor allem den Zugang zu Kapital. Ein Highlight war das Investor Dinner im November 2025, bei dem die Gründer*innen direkten Zugang zu Risikokapitalgeber*innen erhielten – in der aktuellen Marktphase ein entscheidender Wettbewerbsvorteil.

Die „Class of 2025“: Wer die Transformation treibt

Die zehn Absolvent*innen decken die gesamte Wertschöpfungskette ab – vom Boden über das Labor bis zum Supermarktregal. Hier ein Blick auf die Köpfe hinter den Innovationen:

1. High-Tech auf dem Acker: Robotik und Daten

Die Digitalisierung der Landwirtschaft (Smart Farming) ist der stärkste Hebel für mehr Effizienz.

Paltech GmbH

Die Brüder Felix und Florian Schiegg gründeten 2022 Paltech zusammen mit Jorge Decombe im Allgäu. Ihr autonomer Roboter für chemiefreie Unkrautbekämpfung im Grünland ist eine Antwort auf strengere Pestizid-Gesetze und Personalmangel.

Bacchus Software GmbH

Das 2023 gegründete Start-up bacchus Weinbau-Software um das Trio Maximilian Dick, Julian Herrlich und Philipp Bletzer digitalisiert den Weinbau. Ihre Software ersetzt das händische Fahrtenbuch und koordiniert die komplette Weinbergsarbeit.

Agrario Energy

Die Energiewende macht Landwirt*innen zu Energiewirt*innen. Seit 2023 bieten die Gründer Alexander von Breitenbach und Chris Weber mit Agrario Energy eine unabhängige Vergleichsplattform, die Flächeneigentümer mit Betreiber*innen von Erneuerbare-Energien-Anlagen zusammenbringt.

2. Deep Tech & Sicherheit: Das Labor als Wächter

Lebensmittelsicherheit wird durch globale Lieferketten immer komplexer. Hier setzen wissenschaftsbasierte Ausgründungen an.

NanoStruct GmbH

NanoStruct wurde 2021 als Spin-off der Universität Würzburg gegründet. Das Team nutzt Nanotechnologie, um gefährliche Bakterien in Lebensmitteln in Minuten statt Tagen aufzuspüren.

SAFIA Technologies

Gegründet 2020 von Timm Schwaar (aus der Bundesanstalt für Materialforschung), entwickelt das Berliner Start-up SAFIA Technologies Schnelltests für Mykotoxine (Schimmelpilzgifte). Ihre Technologie ermöglicht Laborqualität im Schnelltest-Format.

Landman.Bio

Das noch junge Unternehmen (Gründung 2023) Landman.Bio nutzt Bakteriophagen (Viren, die Bakterien fressen) als natürliche Waffe gegen Pflanzenkrankheiten – eine dringend benötigte Alternative zu Antibiotika und klassischen Pestiziden in der Nutzpflanzenzucht.

3. Sustainability & Climate: Kohlenstoff als Währung

CO2-Tracking ist kein Marketing-Gimmick mehr, sondern ökonomische Notwendigkeit.

CinSOIL

Das 2024 in Berlin gegründete CinSOIL-Team um Dr. Giorgi Shuradze, Dr. Antonella Succurro und Dr. Tavseef Shah kommt aus der Wissenschaft. Ihr KI-Tool nutzt Satellitendaten, um Bodenkohlenstoff zu erfassen. Das ermöglicht Agrarunternehmen, Dekarbonisierung nicht nur zu behaupten, sondern zu beweisen.

Niatsu

Gegründet 2023 von Marius Semm und Jakob Tresch in Zürich, adressiert Niatsu die Lebensmittelindustrie. Ihre Software berechnet den Product Carbon Footprint (PCF) automatisiert und kostengünstig, was gerade für den Mittelstand entscheidend ist.

4. Future Food

Was wir morgen essen (und trinken).

VANOZZA

Eines der etabliertesten Start-ups der Runde. Gegründet 2019 von Nico Hansen in Hamburg, hat sich Vanozza mit fermentierten Käsealternativen auf Cashew-Basis einen Namen gemacht und arbeitet nun an der „zweiten Generation“ ihrer Produkte.

food42morrow/JUMA

Die Frankfurter Gründer Raoul und Max Kammann sowie Carlos Lopez Granado gründeten die GmbH bereits 2020 und brachten 2022 ihre Marke JUMA (Tee-Eistees auf Guayusa-Basis) auf den Markt. Sie bedienen den Trend zu „Functional Food“.

Fazit

Die AgriFood-Start-ups des Abschlussjahrgangs des Growth Alliance Accelerators 2025 haben die Phase der reinen Ideen-Findung bereits eindrucksvoll gemeistert. Jetzt geht es um Skalierung, industrielle Anwendung und messbaren Impact. Programme wie die Growth Alliance sind dabei der Katalysator, der wissenschaftliche Exzellenz mit dem nötigen Geschäftssinn verbindet.

Der industrielle Wasserkocher: Wie das Start-up SYPOX die Chemie grün färbt

Die chemische Industrie hat ein massives Emissionsproblem, denn ihre Prozesse verschlingen Unmengen an Erdgas. Das 2021 geründete Start-up SYPOX, ein Spin-off der TUM will das ändern – mit einer Technologie, die so simpel wie genial klingt: Ein riesiger, elektrischer Tauchsieder soll die fossile Verbrennung ersetzen. Nun meldet das junge Unternehmen den ersten Durchbruch auf dem Weltmarkt.

Wenn Dr. Martin Baumgärtl erklären will, wie er die chemische Industrie revolutionieren möchte, wählt er ein Bild, das jeder versteht: „Im Grunde ist es wie ein Wasserkocher in der heimischen Küche – nur im industriellen Maßstab.“ Baumgärtl ist CTO von SYPOX, und was er beschreibt, könnte einer der wichtigsten Hebel für die Dekarbonisierung einer der schmutzigsten Branchen der Welt sein.

Die chemische Industrie ist süchtig nach Energie. Um Basischemikalien wie Methanol oder Ammoniak herzustellen, wird sogenanntes Synthesegas benötigt – eine Mischung aus Wasserstoff und Kohlenmonoxid. Die Herstellung geschieht in gewaltigen Hochtemperaturprozessen. Bisher wird die dafür nötige Hitze fast ausschließlich durch das Verbrennen von Erdgas oder Öl erzeugt. Die Folge: Gigantische CO-Emissionen.

Strom statt Flamme

Genau hier setzt SYPOX an. Das 2021 in Freising gegründete Unternehmen ersetzt die offenen Gasflammen durch elektrischen Strom. In ihren Reaktoren, die von außen wie gewöhnliche Druckbehälter aussehen, stecken hochkomplexe elektrische Heizelemente, die direkt hinter den Katalysatoren platziert sind.

Der Effekt ist enorm: „In konventionellen Verfahren entfallen rund 40 Prozent der Emissionen allein auf die Wärmeerzeugung aus fossilen Energieträgern“, rechnet Baumgärtl vor. Durch die Elektrifizierung des Reaktors fallen diese Emissionen weg – vorausgesetzt, der Strom kommt aus erneuerbaren Quellen. Zudem lässt sich der Prozess laut den Gründern präziser und sicherer steuern.

Der Anti-Trend im Silicon Valley

Doch nicht nur technologisch, auch ökonomisch schwimmt SYPOX gegen den Strom. In der Tech-Szene ist es üblich, dass Start-ups jahrelang Verluste schreiben und sich von einer Venture-Capital-Runde zur nächsten hangeln, getrieben von Investoren, die schnelles Wachstum fordern.

Die bayerischen Gründer wählten einen konservativeren, fast schon mittelständischen Ansatz. „Es entsprach nicht unserem Stil, Geld einzuwerben – wir haben vielmehr von Anfang an versucht, auf Basis unserer Technologie ein tragfähiges Geschäft aufzubauen“, erklärt CEO Dr. Gianluca Pauletto. Man wolle bodenständig bleiben und sich aus Umsätzen finanzieren, statt sich in Abhängigkeiten zu begeben.

Vom Container im Altmühltal zum Großkunden

Die Wurzeln des Unternehmens liegen an der Technischen Universität München (TUM). Die Idee brachte Pauletto aus seiner Zeit in Montréal mit, an der TUM fand er in Prof. Johannes Lercher und dem damaligen Doktoranden Martin Baumgärtl die wissenschaftlichen Mitstreiter.

Der Weg zum marktreifen Produkt war – typisch für „Deep Tech“ – langwierig. „Vier Jahre Forschung und zahlreiche Versuchsreihen waren notwendig“, erinnert sich Lercher. Während andere Software im Co-Working-Space programmierten, baute das SYPOX-Team eine Pilotanlage in einem einfachen Stahlcontainer auf dem Gelände einer Biogasanlage im ländlichen Dollnstein (Altmühltal).

Diese Beharrlichkeit zahlt sich nun aus. Das Start-up hat, unterstützt durch den Spezialchemie-Konzern Clariant, seinen ersten Großkunden an Land gezogen. Ab 2026 soll eine erste industrielle Anlage in Betrieb gehen, die täglich 150 Tonnen Synthesegas produziert. „Das ist nicht nur ein Meilenstein für uns, sondern auch ein starkes Signal an die gesamte chemische Industrie“, so Baumgärtl.

Für das Team, das inzwischen in Langenbach bei Freising sitzt und weiterhin Labore auf dem Forschungscampus Garching betreibt, ist das der Beweis: Die Elektrifizierung der Chemie ist keine Zukunftsmusik mehr, sie beginnt jetzt.

Optocycle: Bauschutt-Recycling auf KI-Basis

Die Optocycle-Gründer Max-Frederick Gerken und Lars Wolff Optocycle zeigen, wie aus Bauschutt neuer Rohstoff wird und erhalten dafür eine Förderung der Deutschen Bundesstiftung Umwelt (DBU).

Jährlich fallen in Deutschland laut Umweltbundesamt rund 86 Mio. Tonnen Schutt und Abfälle auf Baustellen an. Häufig landen diese Materialien auf Deponien. So gehen allerdings wertvolle Ressourcen verloren. Der Ausweg: Ein hochqualitatives Recycling des Schutts vermeidet klimaschädliche Emissionen und hält wertvolle Materialien im Wertstoffkreislauf – und das bei zertifiziert gleichwertiger Qualität.

Um das Recycling von Material im Bausektor zu automatisieren, entwickelt das 2022 von Max-Frederick Gerken und Lars Wolff gegründete Start-up Optocycle aus Tübingen ein System auf Grundlage künstlicher Intelligenz (KI) zum Echtzeit-Monitoring.

Echtzeit-Monitoring im Recycling-Prozess

Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt mit rund 170.000 Euro. Im Rahmen der DBU-Green Startup-Förderung haben die Gründer ein KI-basiertes System zur automatischen, reproduzierbaren Klassifizierung von Bauabfällen entwickelt. Darauf aufbauend soll nun ein Prototyp das Echtzeit-Monitoring von RC-Körnungen – also recycelten Gesteinskörnungen aus Bauschutt – ermöglichen.

 „Aktuell basiert in der Branche der Aufbereitungsprozess von Bauschutt meist auf subjektiven Schätzungen“, so Max-Frederick Gerken.  Auch das Endprodukt werde nur stichprobenartig im Labor überprüft. Mit dem System sei „Echtzeitmonitoring von Recycling-Gesteinskörnungen möglich. Somit können die Qualität der Körnung verbessert und mehr Material in die Beton-Produktion überführt werden“, so Gerken.

Die Qualität von Sekundärrohstoffen verbessern

Das System kombiniert laut Gerken moderne, optische Sensorik mit KI – und löse so ein altbekanntes Problem in der Baubranche. „Zurzeit schwankt oft die Beschaffenheit der recycelten Rohstoffe. Das bedeutet einerseits ein wirtschaftliches Risiko für Unternehmen und führt andererseits zum Verlust von wertvollen Materialien“, so Gerken. Optocycle erwartet mithilfe seiner Entwicklung eine 20 Prozent höhere Menge an recycelten, hochqualitativen Gesteinskörnungen sowie 15 Prozent geringere Abfallreste, die sonst auf Deponien landen würden. Dazu werden nach Gerkens Angaben sowohl der eingehende Schutt „optimal klassifiziert“ als auch das Ergebnis transparent überprüft. Kooperationspartner ist hierbei die Heinrich Feeß GmbH, die laut Gerken bereits seit vielen Jahren mit Optocycle zusammenarbeitet. Der Mitgründer weiter: „Die Technologie leistet einen Beitrag für Kreislaufwirtschaft im Bauwesen. Wir helfen dabei, die Qualität von Sekundärrohstoffen zu verbessern, die aus dem Bauschutt gewonnen werden. Diese Lösung lässt sich zudem perspektivisch auf alle Abfallströme übertragen."

Das System von Optocycle kann Gerken zufolge direkt in bereits bestehende Anlagen zur Verarbeitung von Bauabfällen installiert werden – „direkt über dem Fließband.“ Diese einfache Nachrüstung spare Kosten und ermögliche die schnelle Umsetzung eines innovativen Bauschutt-Recyclings. „Denn nur wenn das Recycling finanziell machbar ist, kann die Kreislaufwirtschaft in der Baubranche Erfolg haben“, so Gerken.

Kreislaufwirtschaft in der Baubranche ist aktiver Klimaschutz

Kreislaufwirtschaft in der Baubranche hat nach den Worten des zuständigen DBU-Referenten Dr. Volker Berding wichtige Effekte für den Klimaschutz: „Die Produktion von immer neuem Beton sorgt für hohen Ausstoß von klimaschädlichen Treibhausgasen.“ Einer WWF-Studie zufolge entstehen bei der Herstellung von Zement – dem wichtigsten Bestandteil von Beton – acht Prozent der gesamten globalen Treibhausgasemissionen. Berding: „Alles, was zur einer Emissionsreduzierung beiträgt, hat also bereits einen großen Effekt für den Klimaschutz.“ Eine Kreislaufwirtschaft funktioniere jedoch nur, „wenn die Sekundärrohstoffe sich qualitativ nicht von einer Neuproduktion unterscheiden. Genau diesen Schritt kann Optocycle mit einem skalierbaren, optimierten Prototypen gehen.“

SPEIKI: das Spucktuch zum Anziehen

SPEIKI wurde von Dr. Karin Mehling entwickelt – als ihr eigenes Kind ein sogenanntes Spuckbaby war und gängige Hilfsmittel im Alltag nicht funktionierten. Aus dieser Erfahrung entstand ein durchdachtes Spucktuch, das genau auf die Bedürfnisse von Eltern und das Verhalten der betroffenen Babys abgestimmt ist.

Was tun, wenn das eigene Baby ständig spuckt – und keine Lösung wirklich hilft? Genau diese Frage hat sich Gründerin Dr. Karin Mehling 2020 gestellt, als sie selbst mitten in der herausfordernden Spuckphase ihres zweiten Kindes steckte. Rund 70 Prozent der Säuglinge spucken in den ersten vier bis sechs Lebensmonaten – ein häufiges Phänomen, das durch den noch unreifen Magenpförtner, einem Muskel am Mageneingang, verursacht wird.

Der Alltag ist in dieser Zeit vor allem geprägt durch Flecken wischen und Wäsche waschen, unangenehme Gerüche und feuchte Textilien. Aus ihrer persönlichen Erfahrung entstand das SPEIKI Original (Kurzform für Speikind): Ein „Spucktuch zum Anziehen“, das Eltern von Speikindern spürbar entlastet, da es die ausgespuckte Milch fast vollständig auffängt.

Per Bootstrapping aus dem Wohnzimmer in den Markt

Entwickelt wurde das SPEIKI Original am Wohnzimmertisch für den eigenen Sohn. 2021 meldete die promovierte Germanistin, Verlagskauffrau sowie PR- und Marketing-Managerin ihr Gewerbe als Einzelunternehmerin, wenig später konnte das Spucktuch bereits in Serie gehen.

In der per Bootstrapping finanzierten Startphase war es laut der Gründerin die größte Challenge, zu akzeptieren, nicht alles sofort schaffen zu können. Während sie als Angestellte ihren Fokus auf die klar definierten Projekte und Tätigkeiten legen konnte, kamen nun als Solo-Selbständige die Notwendigkeiten rund um Buchhaltung, Herstellung, Verwaltung und vieles mehr hinzu.

„Mit zwei Kindern zu Hause und bald einen weiteren Buben im Bauch gründete ich mein Einzelunternehmen. Entwicklung, Vermarktung, Vertrieb – alles stemmte ich allein und ,nebenbei‘. Nachts, zwischen Windeln und Weinen, auf dem Boden neben der Badewanne, in der die Buben sitzen – es gab fast keinen Ort und keine Zeit, die ich nicht versuchte zu nutzen, um meine Vision voranzutreiben: Mit meinem Textil-Label kluge Lösungen für den Baby-Alltag zu schaffen, die wirklich unterstützen. Dabei leiteten und leiten mich mein Ehrgeiz, mein Allrounder-Gemüt und meine Zielstrebigkeit, ebenso wie meine Werte, die dem Prinzip der ökonomischen Nachhaltigkeit folgen.“

Gefertigt wird das Spucktuch in einer bayerischen Nähmanufaktur. Regionalität ist Karin Mehling wichtig, als Unternehmerin sieht sie sich in der Verantwortung, nachhaltig zu wirtschaften.

Fünf Jahre erfolgreich im stark umkämpften Babyausstattungsmarkt

Der Weg von der ersten Idee bis zum etablierten Produkt zeigt den typischen Werdegang vieler Einzelunternehmen: handgemachte Prototypen, lokale Produktionswege und ein wachsendes Sortiment, das sich an den alltäglichen Bedürfnissen von Familien orientiert. Der Hauptfokus liegt bis heute auf dem SPEIKI selbst. Ergänzende Produkte runden das Portfolio ab, bleiben aber klar am Bedarf von Familien mit Spuck- und Stillthemen ausgerichtet.

Das Ergebnis: Ein Sortiment, das trotz spitzer Positionierung breit genug ist, um relevant zu bleiben. Das Wachstum der Marke basiert vor allem auf organischer Sichtbarkeit, Community-Nähe und authentischer Kommunikation.

„Ich habe mich bewusst auf das Kernprodukt konzentriert – und ergänze nur dort, wo Familien echte Bedürfnisse haben“, erklärt die Gründerin. Die Nachfrage zeigt, dass dieser Ansatz funktioniert: Das Unternehmen feiert in diesem Jahr sein fünfjähriges Jubiläum und blickt auf eine Entwicklung zurück, die weit über die Region hinaus Wirkung zeigt. Als Direct-to-Customer-Unternehmen mit jährlich wachsenden Umsätzen ein Meilenstein im stark umkämpften Babyausstattungsmarkt. „Dass aus einer spontanen Idee so viel werden kann, hätte ich selbst nicht zu träumen gewagt“, sagt Karin Mehling. „Aber offensichtlich haben viele Eltern genau das gebraucht.“

Report Gendermedizin

Auch mithilfe von FemTech- und HealthTech-Start-ups steigt in unserer Gesellschaft langsam das Bewusstsein dafür, dass der weibliche Körper medizinisch anders funktioniert als der männliche, und Frauengesundheit mehr ist als "nur" Zyklus, Schwangerschaft und Wechseljahre.

Alles, was speziell für die Frau ist und beim Mann nicht existiert“, erklärt Raoul Scherwitzl, Doktor der Philosophie, Festkörper- und Materialphysik sowie Co-Founder des FemTech-Start-ups Natural Cycles, was mit Frauenmedizin gemeint ist. Diese Aussage wird häufig innerhalb gesundheitspolitischer Debatten getätigt, wenn es darum geht, wie Frauenkrankheiten im Gegensatz zum männerzentrierten Usus in der Medizin behandelt werden: oftmals zweitrangig oder als Anhängsel an männerfokussiertem Wissen.

Der französische Soziologe Pierre Bourdieu beschrieb in seinem Werk „Die männliche Herrschaft“ bereits 1998, wie „kulturelle und wissenschaftliche Systeme männliche Normen als allgemeingültig setzen und alles, was weiblich ist, als Abweichung oder Sonderfall markieren“. Sieht man sich die Geschichte der westlichen Medizin an, drängt sich der Eindruck auf, dass Bourdieus Beschreibung für den Gesundheitsbereich ins Schwarze trifft.

Blickt man darüber hinaus in die (Fach-)Literatur der letzten Jahrzehnte, so erkennt man: Bis in die späten 80er-Jahre wurden weibliche Bedürfnisse, psychosoziale Belastungen und Körperbilder in der medizinischen Forschung und Praxis weitgehend ignoriert. Erst eine aufkeimende Frauengesundheitsbewegung durchbrach diese Mauer und etablierte den Begriff Frauengesundheit bzw. Gendermedizin. Seitdem schärft sich der Blick auf die Frau, und die Gesellschaft hat begonnen, in Publikationen und Debatten genauer hinzusehen – mit einer bewusstseinsschaffenden Agenda, warum dieses Thema wichtig ist.

Frauengesundheit ist mehr als Reproduktion

„Die Definition von Frauengesundheit wird oft sehr eng gefasst“, erklärt Scherwitzl das Problem; „nämlich als alles, was mit reproduktiver Gesundheit zu tun hat: Menstruations­zyklus, Pubertät, Schwangerschaft, Geburt, Wochenbett, Unfruchtbarkeit und Wechseljahre. Die klassische Definition spannt sich dabei meist über das reproduktive Zeitfenster einer Frau zwischen etwa 15 und 50 Jahren.“ Dabei werde oft übersehen, dass Frauengesundheit weit mehr umfasse: „Es geht auch darum, den gesamten Gesundheitsbereich aus der Perspektive von Frauen zu betrachten – und das wird bislang kaum getan“, so Scherwitzl. Ein großes Problem liegt laut dem Gründer darin, dass die meisten Medikamente auf Basis klinischer Studien mit Männern entwickelt wurden; mit der Annahme, dass sie bei Frauen gleich gut wirken – obwohl Frauen biologisch anders reagieren. Als Beispiel nennt Scherwitzl die Insulinresistenz, die sich bei Frauen im Lauf des Zyklus verändert. „Dies wird aber kaum berücksichtigt“, ergänzt er.

Im Gesundheitswesen fehle es häufig an passenden Tools und Produkten, um Frauen gezielt zu unterstützen. Ein Beispiel hier sei die Hormontherapie in den Wechseljahren, bei der oftmals lediglich hoch dosierte Varianten jahrzehntealter Medikamente zum Einsatz kämen. „Das Resultat ist, dass sich Frauen häufig selbst um ihre Beschwerden kümmern müssen. Viele suchen zunehmend online nach Hilfe. Große Pharmakonzerne haben diesen Mangel erkannt und investieren inzwischen in Forschung zu Themen wie Endometriose oder Wechseljahre“, sagt Scherwitzl. Sein Start-up Natural Cycles setzt auf ein datenbasiertes Modell mit Körperwerten und Algorithmen, kombiniert mit Aufklärung und individualisierter Medizin; mit dem Ziel, einen Beitrag dazu zu leisten, dass Frauen künftig Zugang zu besser abgestimmten Medikamenten und mehr effektiven Lösungen erhalten.

Es muss endlich in die Köpfe kommen

„Es muss endlich in die Köpfe kommen, dass der weibliche Körper anders funktioniert als der männliche“, mahnt Simone Mérey in diesem Sinn. Sie ist Founderin des 2022 gegründeten Pflege-Start-ups HeldYn. Mérey hat jahrelang im Krankenhaus gearbeitet und hatte dabei viel mit Schmerzpatient*innen zu tun. Sie erkannte dabei einen Gender-Bias: Frauen mit Schmerzen wurden oft als wehleidig abgestempelt – veraltete Vorstellungen in den Köpfen der Beteiligten –, mit der Folge, dass Patientinnen schnell einmal als depressiv oder psychisch labil eingestuft wurden. „Dies ist keine akkurate Einschätzung – es ist wissenschaftlich belegt, dass Frauen eine höhere Schmerzgrenze als Männer haben“, betont Mérey. „Hier merkt man, wie soziale Konstrukte wirken: Die Frau wird oft als die gesellschaftlich Schwächere wahrgenommen, obwohl ihr Körper viel aushält, Stichwort Geburt. So kommt es zu falschen Dosierungen und der Vernachlässigung von Symptomen.“

Chance für HealthTech-Start-ups?

Eine Vernachlässigung, die Akteur*innen und Start-ups im Health-Bereich Chancen eröffnet. Ähnlich denkt Scherwitzl, der Start-ups mit „großen Ambitionen“ im Entstehen sieht: „Das Funding ist da“, sagt er. „Vor allem in den letzten fünf Jahren hat sich einiges verbessert. Wenn Investoren merken, dass man hier viel Growth erreichen kann, wird noch mehr Geld fließen.“

Was jedoch aktuell noch fehle, sei der große Erfolg, der beweise, dass es sich lohne, in dieses Feld zu investieren. „Im Pharmabereich gibt es etwa die Pille oder Antidepressiva – im digitalen Bereich bin ich jedoch optimistisch, dass der nächste große Durchbruch bevorsteht“, so Scherwitzl. Der Founder zeigt sich überzeugt, dass es zu jedem pharmazeutischen Ansatz künftig auch eine digitale Alternative geben sollte, mit der Frauen medizinisch besser begleitet werden können. „Pharmakonzerne wie Bayer, Organon und Merck haben trotz Deinvestitionen weiterhin Pipelines im Bereich Frauengesundheit. Gleichzeitig gibt es Start-ups wie uns oder Flo in England, das eine neue Version des Kondoms für Frauen entwickelt. Die dänische Cirqle Biomedical arbeitet ebenfalls an einer Alternative zum Kondom, die den Uterus verschließt. Außerdem existieren Start-ups wie Endogene.Bio, das sich auf Endometriose fokussiert.“

Auch Mérey hat trotz aller Probleme bei der Frauenmedizin einen neuen Tenor in dieser Sache erkannt, der sich vom bisherigen „medizinischen Ratschlag“ an Frauen à la „Man muss da durch“ unterscheide: Das Thema der zweiten Lebenshälfte der Frauen werde mehr diskutiert, Tabuthemen wie Wechseljahre würden aufgebrochen. Mérey: „Der negative Anstrich wird langsam entfernt. Es hat in den letzten Jahren ein Umdenken gegeben.“

Außenbereiche in der Gastro gestalten: Diese Details werden 2026 wichtig

Erfahre, welche Details 2026 für Außenbereiche in der Gastronomie zählen und Trends prägen.

Im Jahr 2026 werden Außenbereiche in der Gastronomie zu wichtigen Markenbotschaftern. Gäste erwarten mehr als bequeme Sitzplätze: Sie suchen emotionale Erlebnisse, nachhaltige Designs und ein stimmiges Ambiente. Nach Jahren des Wandels hat sich das Verhalten der Gäste spürbar verändert.

Der Fokus liegt auf Authentizität, Wohlgefühl und einem hochwertigen Gesamteindruck. Restaurants, Cafés und Bars nutzen ihre Terrassen zunehmend als Bühne für Stilbewusstsein und Gastfreundschaft. Studien zeigen, dass für viele Gäste der Außenbereich ein entscheidendes Auswahlkriterium ist. Terrassen mit recyceltem Holz, stimmungsvoller Beleuchtung und begrünten Wänden stehen für diese Entwicklung. Die wachsende Bedeutung von Wetterschutz, Lichtkonzepten und Begrünung verdeutlicht, dass der Außenbereich längst nicht mehr Nebenschauplatz ist, sondern zentraler Bestandteil des gastronomischen Erfolgs. 2026 markiert damit eine neue Ära der Freiluftgastronomie – funktional, ästhetisch und emotional zugleich. Die folgenden Abschnitte zeigen, worauf Verantwortliche achten sollten.

 Wetter- und Klimaschutz: Komfort bei jedem Wetter

Ganzjährige Nutzbarkeit wird 2026 zum entscheidenden Erfolgsfaktor gastronomischer Außenräume.

  • Innovative Überdachungen, langlebige Marktschirme, Windschutzsysteme und moderne Heizlösungen schaffen Behaglichkeit bei wechselnden Wetterbedingungen.
  • Glasdächer mit UV-Filtern, textile Pergolen oder transparente Windschutzwände verbinden Schutz mit Offenheit.
  • Elektrische Infrarotheizungen verlängern die Freiluftsaison und reduzieren Energieverluste.
  • Mobile Heizlösungen und wetterfeste Bodenbeläge sichern Funktionalität bei Regen und Kälte.
  • Automatische Luftzirkulationssysteme verhindern sommerliche Überhitzung und steigern die Energieeffizienz.

Entscheidend ist die Balance zwischen technischer Leistungsfähigkeit und optischer Leichtigkeit. So werden Außenbereiche zu wandelbaren Räumen, die unabhängig von Jahreszeit und Wetter hohen Komfort bieten – ein klarer Wettbewerbsvorteil im anspruchsvollen Gastronomiemarkt.

Materialwahl und Möblierung: Wenn Langlebigkeit und Stil aufeinandertreffen

Die Auswahl der Materialien prägt sowohl das Erscheinungsbild als auch die Langlebigkeit eines gastronomischen Außenbereichs. Robuste Metalle wie Aluminium oder Edelstahl, kombiniert mit wetterfestem Teakholz, setzen ästhetische Akzente und sorgen für Beständigkeit.

Hochwertige Textilien aus Acrylgewebe ergänzen das Gesamtbild: Sie sind pflegeleicht, widerstandsfähig und schützen vor dem Ausbleichen durch Sonnenlicht. Besonders gefragt sind langlebige Sonnenschirme, die Schatten spenden und Design mit Funktion verbinden. Modelle mit integrierter Beleuchtung oder komfortabler Öffnungsmechanik erhöhen den Nutzungskomfort.

Modulare Loungemöbel und ergonomische Sitzlandschaften prägen 2026 den Trend zu Flexibilität und Wohlbefinden.

Farben wie warmes Taupe und gedecktes Grün schaffen visuelle Ruhe und unterstreichen die natürliche Anmutung. So entsteht die Basis für harmonische, witterungsbeständige und zugleich stilvolle Außenbereiche.

Nachhaltigkeit als Schlüsselthema: Umweltbewusste Gestaltungskonzepte im Fokus

Nachhaltigkeit ist 2026 kein Zusatz mehr, sondern die Grundlage jeder gelungenen Außengestaltung. Viele Gastronomiebetriebe setzen auf recycelte Materialien, regionale Pflanzen und eine ressourcenschonende Planung mit kurzen Transportwegen.

Bambus, zertifiziertes Holz und recyceltes Aluminium gelten als bevorzugte Werkstoffe. Begrünte Pergolen und Dachgärten verbessern das Mikroklima und binden Feinstaub. Energieeffiziente LED-Beleuchtung reduziert Stromverbrauch und Wartungsaufwand. Neben der Materialwahl spielt auch der Umgang mit Wasser eine zentrale Rolle: Regenwasserspeicher und automatische Bewässerungssysteme unterstützen ein ökologisches Gleichgewicht. Moderne Lösungen rund um  Geschäftsideen, die unter anderem aus dem Bereich der KI stammen, könnten hier in Zukunft noch weiter relevant werden.

Heimische Pflanzen wie Lavendel oder Ziergräser schaffen ergänzend natürliche Rückzugsorte und unterstreichen die ästhetische Wirkung nachhaltiger Gestaltung. Nachhaltigkeit bedeutet bewusste, umweltgerechte Planung – ästhetisch, zukunftsorientiert und wirtschaftlich sinnvoll.

Beleuchtungskonzepte: So entsteht Atmosphäre durch Licht

Beleuchtung entscheidet über Stimmung und Aufenthaltsqualität im Außenbereich. 2026 liegt der Fokus auf atmosphärischem Licht, das Funktion und Emotion miteinander verbindet und auf detailreichen Akzenten.

  • Warmweiße LED-Leisten, dezente Spots oder laternenartige Leuchten schaffen Struktur und Tiefe. Indirekte Beleuchtung – über reflektierende Flächen geführt – betont architektonische Elemente und sorgt für eine angenehme Lichtwirkung.
  • Farblich variable und flexibel steuerbare Systeme ermöglichen eine Anpassung an Tageszeit und Anlass.
  • Solarleuchten gewinnen an Bedeutung, da sie Nachhaltigkeit mit hoher Flexibilität verbinden und den Energieverbrauch deutlich reduzieren.
  • Lichtinseln an Tischen und Wegen fördern Orientierung und Sicherheit.

Am Abend wird das Zusammenspiel von Helligkeit und Schatten selbst zum Gestaltungselement. Ein durchdachtes Beleuchtungskonzept schafft Atmosphäre und unterstreicht den Charakter des gastronomischen Außenbereichs.

Flexibilität und Modularität: So praktisch sind anpassungsfähige Außenkonzepte

Flexibilität wird 2026 zur Grundvoraussetzung moderner Außenkonzepte. Saisonale Veränderungen, wechselnde Wetterbedingungen und unterschiedliche Gästezahlen erfordern wandelbare Strukturen.

Modulare Möbel, klappbare Trennelemente und mobile Theken ermöglichen schnelle Umgestaltungen. Design und Funktion greifen dabei nahtlos ineinander. Flexible Bodenmodule, frei positionierbare Lichtlösungen und rollbare Pflanzenkübel erleichtern den Umbau zusätzlich.

Der Begriff des dynamischen Außenraums beschreibt Bereiche, die sich je nach Nutzungssituation verändern lassen. Temporäre Überdachungen und anpassbare Windschutzlösungen schaffen weitere Freiräume.

So steht Wandlungsfähigkeit nicht nur für Praktikabilität, sondern auch für kreative Gestaltungsfreiheit, die Außenbereiche lebendig, vielseitig und zukunftssicher macht.

Pflanzen und Begrünung: Natürlichkeit als Gestaltungselement

Begrünung ist 2026 mehr als Dekoration – sie wird zum zentralen Designelement gastronomischer Außenräume. Vertikale Gärten, bepflanzte Trennwände und saisonal wechselnde Blühflächen schaffen natürliche Strukturen und verbessern das Mikroklima. Besonders urbane Standorte profitieren von dieser grünen Aufwertung. Pflanzen wie Lavendel, Gräser oder Olivenbäume verbinden mediterrane Leichtigkeit mit robuster Alltagstauglichkeit.

Auch Nutzpflanzen wie Kräuter, Minze oder essbare Blüten gewinnen an Bedeutung und verleihen dem Außenbereich Authentizität. Moderne Begrünungssysteme erleichtern Pflege und Bewässerung und machen grüne Konzepte dauerhaft praktikabel. Begrünung fördert Biodiversität, vermittelt Ruhe und schafft eine einladende Atmosphäre. So wird der Außenbereich zur kleinen Oase, in der Natur, Design und Gastlichkeit harmonisch zusammenfinden.

Technologische Innovationen: Smarte Lösungen im Außenbereich werden immer beliebter

Technologie prägt 2026 die Gestaltung gastronomischer Außenbereiche nachhaltig. Digitale Lösungen ermöglichen einen optimierten Betrieb und steigern zugleich den Gästekomfort.

  • Smarte Heizsysteme mit Bewegungssensoren
  • automatisierte Schirmsteuerungen
  • appbasierte Lichtkonzepte

machen Abläufe effizienter und energiesparender. Vernetzte Systeme passen Beleuchtung, Temperatur und Beschattung automatisch an Wetter und Tageszeit an. Digitale Reservierungslösungen zeigen Sitzplatzverfügbarkeiten in Echtzeit und erleichtern die Planung.

USB-Ladepunkte an Tischen und kabellose Soundsysteme erweitern die Funktionalität und erhöhen den Komfort. So ergänzt moderne Technik energieeffiziente Konzepte und verleiht Außenbereichen ein zeitgemäßes, hochwertiges Erscheinungsbild. Das Zusammenspiel von Technik und Design macht smarte Außenräume zukunftsfähig und sorgt für ein stimmiges Gästeerlebnis – vom frühen Abend bis in die Nacht.

Farben und Designs: Was liegt 2026 im Trend?

Farb- und Designtrends prägen 2026 die Atmosphäre gastronomischer Außenflächen. Natürliche Töne wie Sand, Oliv und Terrakotta dominieren, während Akzente in Ockergelb oder Petrol Frische und Tiefe verleihen.

Strukturen gewinnen an Bedeutung: Geflochtene Texturen, matte Oberflächen und handwerkliche Details vermitteln Authentizität. Organische Formen und modulare Gestaltungskonzepte setzen auf Leichtigkeit und Flexibilität.

Auch die Einbindung lokaler Materialien stärkt die regionale Identität und verleiht Außenbereichen Charakter. Farbkonzepte folgen dem Prinzip „Weniger ist mehr“: Feine Kontraste zwischen warmen und kühlen Nuancen schaffen Ruhe und Orientierung. Biophiles Design, das Natur und Architektur verbindet, sowie der Japandi-Stil – eine Verbindung aus japanischem Minimalismus und skandinavischer Klarheit – prägen die Ästhetik.

Das Ergebnis sind Außenbereiche mit visueller Klarheit, zeitloser Eleganz und stilistischer Beständigkeit.

Darum ist es wichtig, das Thema Geräuschmanagement nicht zu unterschätzen

Akustik wird 2026 zu einem entscheidenden Faktor für das Wohlbefinden in gastronomischen Außenbereichen, besonders in urbanen Lagen. Lärmreduktion und gezielte Klanggestaltung – also die bewusste Steuerung von Schall und Nachhall – verbessern oft spürbar die Aufenthaltsqualität.

Schalldämpfende Materialien wie Akustikpaneele aus recycelten Fasern oder begrünte Wände kommen dabei vermehrt zum Einsatz.

Auch schallabsorbierende Textilien, gepolsterte Möbel und bepflanzte Flächen wirken geräuschmindernd.

So entstehen Rückzugsorte mitten im städtischen Trubel. Dezente Hintergrundmusik schafft Balance, ohne Gespräche zu überlagern. Das Ergebnis sind entspannte Außenbereiche, in denen Kommunikation mühelos möglich bleibt. Akustisches Design wird damit zu einem zentralen Bestandteil moderner Gastronomiearchitektur – funktional, ästhetisch und wohltuend zugleich.

KI-Modelle erfolgreich im Unternehmen einführen

Worauf es bei der Implementierung von KI wirklich ankommt.

Künstliche Intelligenz (KI) gewinnt in Unternehmen zunehmend an Bedeutung. Sie kann Prozesse beschleunigen, große Datenmengen sinnvoll nutzbar machen und Entscheidungen unterstützen. Doch in der Praxis zeigt sich: Moderne Technologie allein führt noch nicht zum Erfolg. Entscheidend ist ein strukturiertes Vorgehen, bei dem Ziele klar definiert, Daten sorgfältig vorbereitet und organisatorische Rahmenbedingungen von Beginn an berücksichtigt werden. „Viele KI-Initiativen scheitern daran, dass am Anfang die Orientierung fehlt“, sagt Benedikt Weber, Geschäftsführer der applord GmbH. „Struktur schafft Entscheidungsfähigkeit – noch bevor über konkrete KI-Modelle gesprochen wird.“

Organisatorischer Wandel und Einbindung der Mitarbeitenden

Der Einsatz von KI verändert Arbeitsabläufe, Verantwortlichkeiten und Entscheidungswege. Mitarbeitende arbeiten verstärkt mit automatisierten Systemen zusammen, Aufgaben verschieben sich, Rollen entwickeln sich weiter. Wird dieser Wandel nicht aktiv begleitet, entstehen Unsicherheiten oder Ablehnung gegenüber neuen Technologien. Erfolgreiche Unternehmen setzen deshalb auf transparente Kommunikation und frühzeitige Einbindung der Mitarbeitenden. Sie erklären, warum KI eingesetzt wird, welche Aufgaben sie übernimmt und wo menschliche Expertise weiterhin unverzichtbar bleibt. Fehlt dieses gemeinsame Verständnis, werden neue Systeme häufig nur eingeschränkt genutzt. „KI-Projekte scheitern selten an der Technologie“, betont Weber. „Viel häufiger fehlt ein klares Bild davon, welchen konkreten Nutzen KI für Mitarbeitende und Organisation wirklich bringt.“

Auswahl der passenden KI-Lösung

Das Angebot an KI-Lösungen wächst rasant. Für Unternehmen besteht die Herausforderung darin, nicht der technischen Vielfalt zu folgen, sondern eine Lösung zu wählen, die zum eigenen Geschäftsprozess passt. Der Ausgangspunkt sollte immer ein klar definierter Anwendungsfall sein: Welche Aufgabe soll KI konkret unterstützen oder verbessern? Neben den Funktionen spielen auch Fragen der Nachvollziehbarkeit, Integration in bestehende Systeme und regulatorische Anforderungen eine Rolle. Werden diese Aspekte zu spät berücksichtigt, entstehen Lösungen, die technisch leistungsfähig sind, im Alltag aber keinen Mehrwert liefern. „Viele Unternehmen wählen KI nach dem Funktionsumfang aus und stellen später fest, dass sie nicht zum eigenen Prozess passt“, erklärt Weber. „Erfolgreich ist KI dann, wenn sie Abläufe sinnvoll ergänzt und verständliche Ergebnisse liefert.“

Datenqualität als Grundlage für verlässliche Ergebnisse

KI-Modelle sind vollständig von der Qualität ihrer Daten abhängig. In vielen Unternehmen existieren relevante Informationen zwar, sie sind jedoch über verschiedene Systeme verteilt, unterschiedlich gepflegt oder historisch gewachsen. Diese Ausgangslage erschwert nicht nur den Einsatz von KI, sondern kann zu fehlerhaften oder schwer nachvollziehbaren Ergebnissen führen. Datenmanagement ist daher keine einmalige Vorarbeit, sondern eine kontinuierliche Aufgabe. Dazu gehören klare Zuständigkeiten, regelmäßige Prüfungen und eine strukturierte Aufbereitung der Daten. „Der Aufwand für Datenqualität wird häufig unterschätzt“, sagt Weber. „Ohne geprüfte und konsistente Daten lassen sich keine stabilen und verlässlichen KI-Ergebnisse erzielen – unabhängig davon, wie gut das Modell ist.“

Schrittweise Einführung statt großer Umbruch

Statt KI sofort unternehmensweit einzusetzen, empfiehlt sich ein schrittweises Vorgehen. Unternehmen können so mit klar abgegrenzten Anwendungsfällen beginnen, Lösungen im Alltag testen und die Ergebnisse anhand messbarer Kriterien, wie Benutzerfreundlichkeit oder verständlicher Anleitungen, bewerten. So lassen sich Risiken reduzieren und Erkenntnisse gezielt nutzen. Pilotprojekte liefern nicht nur technische Erkenntnisse, sondern zeigen auch, wie gut KI im Arbeitsalltag akzeptiert wird. Auf dieser Basis lässt sich entscheiden, welche Lösungen ausgebaut werden sollten. „Unternehmen, die mit überschaubaren Anwendungsfällen starten, treffen langfristig fundiertere Entscheidungen“, so Weber. „Praxiserfahrungen sind dabei deutlich wertvoller als theoretische Annahmen.“

KI & Bewertungen: Sichtbarkeit in einer neuen Suchrealität

Tipps und To-dos: Wie du dein Bewertungsmanagement strategisch aufsetzt und Sichtbarkeit und Vertrauen im KI-Zeitalter steigerst.

Generative Antworten in Suchmaschinen und Assistenten verändern die Spielregeln der Online-Sichtbarkeit. Nicht mehr nur klassische Rankings entscheiden, sondern die Frage, wem die KI genug vertraut, um es überhaupt zu nennen. Aktuelle, glaubwürdige und inhaltlich konkrete Bewertungen werden dabei zum Schlüsselsignal. Für kleine und mittlere Unternehmen bedeutet das: Bewertungsmanagement ist kein Nice-to-have mehr, sondern ein Pflichtprogramm, das Auffindbarkeit, Auswahl und Conversion spürbar beeinflusst. Im Folgenden erfährst du, wie du dein Bewertungsmanagement strategisch aufsetzen solltest, um Sichtbarkeit und Vertrauen im KI-Zeitalter zu steigern.

Warum Bewertungen jetzt geschäftskritisch sind

KI-Modelle zerlegen Rezensionen in viele kleine Bedeutungseinheiten und ziehen daraus ein konsistentes Bild. Welche Leistung wurde erbracht, an welchem Ort, mit welcher Qualität und für welchen Anlass. Aus den einzelnen Stimmen entsteht so ein Vertrauensprofil, das über bloße Sternesummen hinausgeht. Entscheidend ist nicht die bloße Menge, sondern die Frische und die inhaltliche Dichte der Aussagen. Eine Rezension wie „Schnell geholfen am Sonntag, sehr kompetente Beratung zu Reiseimpfungen“ liefert gleich mehrere Signale. Zeitliche Verfügbarkeit, thematische Expertise und konkreter Nutzen. Genau solche Details erhöhen die Wahrscheinlichkeit, in generativen Antworten aufzutauchen, wenn Menschen in ihrer Nähe nach einer Lösung suchen. Wer regelmäßig neue, authentische und präzise Bewertungen erhält, verschafft der KI verlässliche Hinweise und sichert sich dadurch mehr Sichtbarkeit in genau den Momenten, in denen Entscheidungen vorbereitet werden.

Bewertungsmanagement als Prozess, nicht als Aktion

Wirksam wird Bewertungsarbeit, wenn sie selbstverständlich Teil der täglichen Abläufe ist. Nach dem Kontakt freundlich um Feedback bitten, den Weg zur passenden Plattform so kurz wie möglich machen, interne Zuständigkeiten klar regeln und Reaktionszeiten verbindlich festlegen. Aus diesen scheinbar kleinen Schritten entsteht ein stabiler Rhythmus, der kontinuierlich neue Kund*innenstimmen hervorbringt und der KI immer wieder frische Kontexte liefert. Ein solcher Prozess ist robuster als jede einmalige Kampagne, weil er verlässlich Vertrauen aufbaut und saisonale Schwankungen abfedert. Teams profitieren, wenn sie Zielkorridore definieren, etwa eine bestimmte Zahl neuer Rezensionen pro Woche und wenn sie Fortschritte sichtbar machen. So wird aus gutem Vorsatz ein gelebter Ablauf, der die gesamte Organisation stärkt.

Sprache der Kund*innen wirkt wie natürliches SEO

KI versteht Alltagssprache deutlich besser als Listen isolierter Schlagwörter. Unternehmen gewinnen, wenn sie um freie, aber konkrete Formulierungen bitten, ohne Vorgabetexte und ohne Druck. Eine höfliche Bitte wie: „Wenn es für Sie passt, nennen Sie gern, was Ihnen besonders geholfen hat“ öffnet den Raum für präzise Hinweise auf Leistungen, Erreichbarkeit, Barrierefreiheit oder Schnelligkeit. Solche natürlich entstandenen Details sind für Menschen überzeugend und zugleich für Maschinen gut interpretierbar. Sie zeigen, wofür ein Betrieb tatsächlich steht, und verankern die passenden Begriffe in einem echten Nutzungskontext. Das Ergebnis ist eine Sprache, die Vertrauen schafft und die Auffindbarkeit stärkt, ohne künstlich zu wirken.

Antworten trainieren Vertrauen für Menschen und Maschinen

Jede Reaktion auf eine Bewertung ist ein sichtbares Zeichen von Serviceorientierung und zugleich zusätzlicher Kontext für die KI. Gute Antworten bedanken sich aufrichtig, beziehen sich konkret auf das Erlebte und bieten einen klaren nächsten Schritt an. Bei Kritik zählt ein professioneller Umgang. Das Anliegen nachvollziehen, Verantwortung übernehmen, eine realistische Lösung anbieten und einen direkten Kontaktweg nennen. So entsteht ein Bild von Verlässlichkeit, das Hemmschwellen senkt und Wiederbesuche wahrscheinlicher macht. Die KI erkennt diesen Umgang ebenso und ordnet das Unternehmen eher als vertrauenswürdig ein. Mit der Zeit entsteht ein stabiler Kreislauf aus guter Erfahrung, konstruktiver Reaktion und wachsendem Vertrauen.

Lokaler Content und Social Proof gehören zusammen

Bewertungen entfalten ihre volle Wirkung, wenn sie auf eine solide Informationsbasis treffen. Konsistente Unternehmensdaten, vollständige Leistungsseiten pro Standort, klare Öffnungszeiten inklusive Ausnahmen und eine schnelle, mobil optimierte Webseite erleichtern die Einordnung für Nutzer*innen und Maschine. Wenn ausgewählte Zitate oder Bewertungsschnipsel an relevanten Stellen sichtbar werden, etwa auf der Startseite, in der Buchungsstrecke oder in den häufigen Fragen, entsteht ein schlüssiges Gesamtbild. Der lokale Bezug bleibt klar erkennbar, die Erwartungen sind gut gesetzt, und die nächsten Schritte sind ohne Umwege möglich. So wird aus Social Proof ein handfester Conversion Hebel.

Vom Feedback zur Verbesserungsschleife

Rezensionen sind fortlaufende Marktforschung aus erster Hand. Wer wiederkehrende Themen auswertet, etwa Wartezeiten, Erreichbarkeit oder Bezahloptionen, erkennt schnell die Stellschrauben mit der größten Wirkung. Wichtig ist, die daraus abgeleiteten Verbesserungen konsequent umzusetzen und sichtbar zu machen. Informieren, handeln, erneut um Rückmeldung bitten. Dieser offene Kreislauf wirkt nach innen und nach außen. Mitarbeitende erleben, dass Feedback Veränderungen anstößt, Kund*innen erleben, dass ihre Hinweise ernst genommen werden, und die KI registriert die fortlaufende Pflege der Qualität. Mit jeder Runde werden Erlebnisse besser und Bewertungen stärker, was die Sichtbarkeit weiter erhöht.

Fazit

Sichtbarkeit entsteht heute dort, wo Menschen nach konkreten Lösungen fragen und wo KIs verlässliche Hinweise zu Qualität und Relevanz finden. Unternehmen, die Bewertungen als strategischen, kontinuierlichen Prozess verstehen, erhöhen ihre Chance, in generativen Antworten genannt zu werden und gewinnen genau in den entscheidenden Momenten an Präsenz. Vieles davon ist eine Frage kluger Organisation und klarer Abläufe. Der finanzielle Aufwand bleibt überschaubar, der Nutzen für Auffindbarkeit, Vertrauen und Umsatz ist deutlich spürbar.

Die Autorin Franziska Ortner ist Produktmanagerin bei SELLWERK

KI-Agenten als Transformationstreiber 2026

Eine aktuelle DeepL-Studie zeigt: 69 % der globalen Führungskräfte erwarten für 2026 tiefgreifende Veränderungen durch KI-Agenten; KI-Sprachtechnologie wird zur unverzichtbaren Infrastruktur.

Eine neue Studie von DeepL, einem globalen Unternehmen für KIProdukte und Forschung, zeigt: 2026 wird für viele Organisationen den Übergang vom Experimentieren mit KI hin zu agentischer Automatisierung markieren. So erwartet die Mehrheit der weltweit befragten Führungskräfte (69 %), dass agentenbasierte KI ihre Geschäftsabläufe im kommenden Jahr deutlich verändern wird.

Die Studie wurde im September 2025 von Censuswide im Auftrag von DeepL durchgeführt. Befragt wurden 5.000 Führungskräfte in Deutschland, Frankreich, den USA, Großbritannien und Japan. Die Ergebnisse deuten darauf hin, dass Unternehmen verstärkt planen, autonome KI-Agenten im großen Umfang einzusetzen – etwa zur Unterstützung von Wissensarbeit, zur Ezienzsteigerung oder zur Anpassung organisatorischer Strukturen. Damit zeichnet sich die bedeutendste operative Veränderung in der Wirtschaft seit der Einführung der Cloud an.

„KI-Agenten sind längst nicht mehr experimentell, sie sind unumgänglich.“ sagt Jarek Kutylowski, CEO und Gründer von DeepL. „Die nächste Phase besteht darin, sie tiefgreifend in unsere Arbeitsweisen zu integrieren. In 2026 werden KI-Agenten das mühsame Umschalten zwischen verschiedenen Kontexten und repetitive Aufgaben übernehmen, sodass sich Menschen auf das konzentrieren können, was Unternehmen tatsächlich voranbringt.“

KI-Agenten werden zum nächsten Disruptor für Unternehmen

Nach ersten Pilot- und Anwendungsfällen rücken KI-Agenten zunehmend in den produktiven Einsatz:

  • Fast die Hälfte der globalen Führungskräfte (44 %) erwartet für 2026 einen tiefgreifenden Wandel durch agentische KI; ein Viertel (25 %) sieht diesen Wandel bereits heute. Nur 7 % glauben, dass KI-Agenten ihre Betriebsabläufe nicht verändern werden, was die hohe Geschwindigkeit der Implementierungen unterstreicht.
  • Als die drei wichtigsten Voraussetzungen für den sinnvollen und vertrauenswürdigen Einsatz von KI-Agenten nennen die Befragten nachweisbare Ezienz- und ROI-Eekte (22 %), Anpassungsfähigkeit der Belegschaft (18 %) und zunehmende organisatorische Bereitschaft (18 %).
  • Als wesentliche Herausforderungen bei der Einführung von KI-Agenten nennen die Befragten Kosten (16 %), Bereitschaft der Belegschaft (13 %) und Reife der Technologie (12 %).

KI als zentraler Wachstumstreiber für globale Unternehmen

Über Agenten hinaus gilt KI insgesamt als wichtigster Motor für das Wirtschaftswachstum in 2026:

  • Über zwei Drittel (67 %) der Befragten geben an, dass sich der ROI ihrer KI-Initiativen in diesem Jahr erhöht hat; mehr als die Hälfte (52 %) erwartet, dass KI im kommenden Jahr mehr zum Unternehmenswachstum beitragen wird als jede andere Technologie.
  • Wenn es um messbare Verbesserungen durch KI geht, liegt Deutschland (78 %) zusammen mit Großbritannien (80 %) an der Spitze, gefolgt von den USA (71 %) und Frankreich (70 %). Japan verzeichnet mit 35 % deutlich niedrigere Werte, was auf langsamere Implementierungen und Bereitschaften hindeutet.
  • Über die Hälfte der globalen Führungskräfte (51 %) rechnet damit, dass KI im kommenden Jahr mehr neue Rollen schat als ersetzt. 52 % geben an, dass KI-Kenntnisse für die meisten Neueinstellungen vorausgesetzt werden.

KI-Sprachtechnologie entwickelt sich vom Werkzeug zur zentralen Infrastruktur

Die Studie zeigt zudem, wie KI-Sprachtechnologie zur entscheidenden Komponente der Unternehmensinfrastruktur wird:

  • Fast zwei Drittel der globalen Unternehmen (64 %) planen 2026 steigende Investitionen in KI-Sprachtechnologie – angeführt von Großbritannien (76 %) und Deutschland (74 %), gefolgt von den USA (67 %) und Frankreich (65 %) werden mehrsprachige Kommunikation und Inhalte zu zentralen Faktoren für globales Wachstum. Im Gegensatz dazu bleibt Japan (38 %) vergleichsweise konservativ, was auf eine langsamere Dynamik hindeutet, gleichzeitig aber das wachsende Interesse von mehr als einem Drittel der Führungskräfte widerspiegelt.

In diesem Zusammenhang wird Echtzeit-Sprachübersetzung 2026 unverzichtbar:

  • Über die Hälfte der globalen Führungskräfte (54 %) sieht Echtzeit-Sprachübersetzung im kommenden Jahr als unverzichtbar an – derzeit sind es ein Drittel (32 %).
  • Großbritannien (48 %) und Frankreich (33 %) sind Vorreiter bei der Nutzung von Tools für die Echtzeit-Sprachübersetzung; Japan liegt derzeit nur bei 11 %.
  • Die Nachfrage wird angetrieben von technologischen Fortschritten in der Echtzeit-Sprachübersetzung (46 %), Kundenerwartungen (40 %) und marktübergreifender Expansion (38 %).

Die Erkenntnisse der Studie liefern wichtige Einblicke in die Zukunft der KI und zeigen, wie diese Veränderungen Branchen umgestalten, Kundenerwartungen neu definieren und sich auf das Wettbewerbsumfeld auswirken.

GreenTech – der Boom geht zu Ende

Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.

Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.

Der Boom geht zu Ende

„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze.  „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“

Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich.  Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“

Herausforderungen im deutschen GreenTech-Sektor

Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte.  Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“

Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit

„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“

Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“

Politik und Wirtschaft in gemeinsamer Verantwortung

Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“

Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.

HR-Trends 2026

Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.

Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.

Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.

1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise

Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.

2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?

Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360GradFeedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.

3. Mensch und KI – zwei Seiten der HR-Medaille

2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.

4. Führung neu denken – Managementpositionen verlieren an Attraktivität

Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.

5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt

Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.

Fazit

Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.

Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche

Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.

Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.

KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.

Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.

Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.

Kontrolle und Zugang: Die Regeln für Sprachmodelle

Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.

Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.

Neue Protokolle für neue Crawler

Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.

Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.

Strukturierte Daten als universelle KI-Sprache

Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.

Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.

Die Bedeutung für die Generierung

Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.

  • Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
  • Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.

Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.

Ladezeit und Interaktivität als Vertrauenssignal

Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.

Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:

  • LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
  • FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
  • CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.

Mobile Performance ist der Schlüssel

Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.

Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.

Redundanz vermeiden: kanonische Klarheit

Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.

Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.

Schlussworte

Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.

Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:

1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.

2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.

3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.

4. Die Vermeidung von Duplikaten durch kanonische Klarheit.

Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.

eleQtron: It's MAGIC

In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.

Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“

Es war ein ungewöhnlicher Ort für eine bahnbrechende

Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.

Von der Universität ...

Im Jahr 2020, als das globale Interesse an Quantentechnolo­gien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.

Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quanten­programme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.

In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.

... zum technologischen Durchbruch

Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer so­genannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikro­wellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“

Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.

Wachstumsschub und strategische Entwicklung

2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.

„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.