Aktuelle Events
KI-Trends 2023
Die nachhaltige Nutzbarkeit von Informationen steht im Zentrum der Trends rund um die Nutzung von künstlicher Intelligenz.
Angesichts der aktuellen Herausforderungen wie Inflation gibt es kaum ein Thema, welches für Unternehmen in den letzten Monaten mehr an Bedeutung gewonnen hat als der Bereich Nachhaltigkeit. Dabei geht es nicht nur darum, die ökologische, ökonomische und soziale Leistungsfähigkeit einer Gesellschaft sicherzustellen und zu optimieren, vielmehr geht es auch um einen nachhaltigeren und bewussteren Umgang mit Daten, Information und Wissen. Nur so können Unternehmen effektiver wirtschaften, innovieren und arbeiten. Im Folgenden haben wir die fünf wichtigsten Trends im Bereich kKünstliche Intelligenz für das Jahr 2023 zusammengefasst.
KI-Trend 1: Fachbereiche werden wertvolle Impulse liefern
Die Relevanz von Fachabteilungen hat seit der Corona-Krise deutlich zugenommen. So sehen 83 Prozent der befragten Unternehmen einer aktuellen Lünendonk-Studie zufolge, einzelne Business Units als Treiber für die digitale Transformation, welche immer stärker entlang der Wertschöpfungskette stattfindet. Moderne Fachabteilungen benötigen zunehmend individuelle Lösungen für ihre speziellen Anwendungsfälle im Geschäftsalltag, wie etwa im Angebotsmanagement oder der Kundenbetreuung, um ihren Beitrag für das Business optimal leisten zu können. Dies ist nachhaltig umsetzbar, wenn die IT mit in die Fachbereiche einbezogen wird und die Fachabteilungen digitalisiert werden.
KI-Trend 2: Die Bedeutung von Explainable AI und Adaptive AI nimmt zu
Viele Unternehmen erkennen die Vorteile von Artificial Intelligence (AI) an, wie eine aktuelle Studie im Auftrag des Digitalverbands Bitkom zeigt. Zehn Prozent der befragten Betriebe wollen 2023 in die Technologie investieren. Als ein möglicher Bremser für den Einsatz nennen 49 Prozent die Sorge über die mangelnde Nachvollziehbarkeit der Ergebnisse. Genau hier setzt „Explainable AI“ an. So sorgt die Nachvollziehbarkeit der Entscheidungen von AI-Anwendungen für mehr Vertrauen in die Systeme und Akzeptanz auf der User-Seite. Gleichzeitig rückt der konkrete Nutzen von AI in den Vordergrund (Adaptive AI). AI-Modelle werden in Zukunft viel stärker als bisher in spezifischen Use Cases Anwendung finden, um die Performance ihrer intelligenten Systeme gegenüber den Mitbewerber*innen zu steigern. Wichtig ist dabei, dass die AI-Systeme sich selbstständig an sich verändernde Situationen und Rahmenbedingungen anpassen, um nachhaltig zu arbeiten.
KI-Trend 3: Intelligent Document Processing wird zu Intelligent Information Processing
Die intelligente Dokumentenverarbeitung der nächsten Generation fokussiert sich noch stärker als bisher auf die in den Dokumenten verfügbaren Informationen – seien es Personennamen oder Auftragsnummern in Texten. Die entsprechenden Lösungen nutzen KI, Deep beziehungsweise Machine Learning, Natural Language Processing (NLP) und andere Methoden, um aus unstrukturierten Quellen wie schriftliche Dokumente oder Bildern mithilfe automatisierter Workflows gewünschte Informationen zu extrahieren, zu kategorisieren und den betroffenen Abteilungen zuzuordnen.
KI-Trend 4: Sentiment Analysis zur Relevanzbewertung von Informationen
Die Sentiment Analysis zielt darauf ab, die Flut an unstrukturierten Daten effizient und nachhaltig in den Griff zu bekommen. Dabei liegt der Fokus auf dem Ton und der Stimmung einer Information. Es geht darum, die Relevanz von Mitteilungen oder Statements mithilfe von KI, Machine Learning & Co. automatisiert zu priorisieren. Anwendungsbereiche sind beispielsweise Ticketing-Systeme, Online-Reviews, Brand Monitoring und Mergers and Acquisitions (M&A), wo das aktuelle Image von möglichen Übernahmekandidaten geprüft werden soll.
KI-Trend 5: Die Zukunft der Unternehmen ist nachhaltiges Arbeiten
Laut „Top Strategic Technology Trends 2023“ von Gartner bilden nachhaltige Technologien ein Framework von Lösungen, um Energie- und Materialeffizienz von IT-Diensten zu erhöhen, was zu einer Nachhaltigkeit des Unternehmens verhilft und dazu führen kann, die Nachhaltigkeitsziele des Unternehmens zu erreichen. Investitionen in nachhaltige Technologien haben auch das Potenzial, die betriebliche Widerstandsfähigkeit sowie die finanzielle Leistung zu verbessern und gleichzeitig neue Wachstumsmöglichkeiten zu eröffnen. Gartner prognostiziert, dass bis 2050 50 Prozent der Leistungskennzahlen der CIOs an die Nachhaltigkeit der IT-Organisation gebunden seien werden.
Fazit
Alles in allem geht es 2023 vor allem um eine noch effizientere Verarbeitung von Informationen und ihre langfristige Nutzbarkeit. Moderne Insight Engines, die eine Vielzahl an Datenquellen unter einem Dach vereinen, Informationen verdichten sowie punktgenau für den jeweiligen Anwendungsfall maßgeschneidert abliefern, unterstützen Unternehmen dabei, effizienter, erfolgreicher und nachhaltiger zu agieren. Die vollständige Version der Trends 2023 findest du hier zum Download.
Der Autor Daniel Fallmann ist Gründer und Geschäftsführer der Mindbreeze GmbH
Diese Artikel könnten Sie auch interessieren:
HR-Trends 2026
Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.
Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.
Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.
1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise
Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.
2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?
Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360‑Grad‑Feedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.
3. Mensch und KI – zwei Seiten der HR-Medaille
2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.
4. Führung neu denken – Managementpositionen verlieren an Attraktivität
Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.
5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt
Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.
Fazit
Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.
Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Report: Quantencomputing
Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.
Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.
Herausforderungen
Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.
Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.
Trends
In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.
Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.
Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintrittsbarrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.
Die Rolle von Start-ups
Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.
Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.
Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.
Deutsche QC-Start-ups mischen ganz vorne mit
Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.
Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.
eleQtron: It's MAGIC
In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.
Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“
Es war ein ungewöhnlicher Ort für eine bahnbrechende
Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.
Von der Universität ...
Im Jahr 2020, als das globale Interesse an Quantentechnologien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.
Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quantenprogramme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.
In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.
... zum technologischen Durchbruch
Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer sogenannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikrowellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“
Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.
Wachstumsschub und strategische Entwicklung
2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.
„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.
Eva Helmeth: Mutig neue Wege gehen
Eva Helmeth (44) ist die Gründerin und CEO von MON COURAGE – einer Naturkosmetikmarke, die Hautpflege für unterwegs neu denkt. Die Anthropologin und Heilpflanzenexpertin lebt als moderne Nomadin und reist um die Welt, um die besten pflanzlichen Wirkstoffe zu finden. Im Juni 2025 pitchte Eva in der TV-Show „Die Höhle der Löwen“ (DHDL). Mehr dazu im Interview.
Eva, was hat dich dazu bewogen, in der VOX-Gründer*innen-Show „Die Höhle der Löwen“ mitzumachen?
In meinem Freundeskreis hörte ich seit 2020: „Du musst deine Hautpflege-Sticks unbedingt bei DHDL vorstellen.“ Ich wollte mir damit aber Zeit lassen. So ein Format kann ein gewaltiger Katalysator sein. Es kann dich nach vorne katapultieren – oder dich überrollen, wenn du noch nicht bereit bist. Ich wusste, wenn ich diesen Schritt gehe, dann zum richtigen Zeitpunkt.
Wie hast du diesen für dich richtigen Zeitpunkt definiert?
Ich habe drei Jahre lang bewusst gewartet. Für mich war entscheidend, dass MON COURAGE kein reines Ideenprojekt mehr war, sondern auf eigenen Beinen steht. Ich wollte Erfahrungswerte mitbringen – in der Produktion, im Vertrieb, im Feedback der Kundinnen und Kunden. Der richtige Zeitpunkt hieß für mich konkret, getestete Produkte, etablierte Marketingkanäle und eine solide Lieferkette vorweisen zu können. Als all das stand, war klar: Jetzt oder nie – denn jetzt sind wir stabil genug, um eine Welle wie DHDL reiten zu können.
Wie war zu diesem Zeitpunkt deine Haltung zu DHDL?
Ich habe die Sendung vorher ehrlich gesagt nie geschaut. Es kursierten Geschichten von Durchbrüchen bis hin zu absoluten Pleiten. Ich habe es als Chance gesehen, meine Geschichte zu erzählen und damit einen Investor oder eine Investorin zu überzeugen der bzw. die wirklich zu MON COURAGE passt. Mir war klar, dass es im Fernsehen in erster Linie um Unterhaltung geht. Als Nomadin, die ihr Kosmetikunternehmen aufbaut während sie weltweit nach Rohstoffen sucht, habe ich genügend Geschichten auf Lager. Das hat mir geholfen, ganz ohne Erwartungsdruck in die Aufzeichnung zu gehen.
Was waren für dich die wichtigsten Learnings aus dem Bewerbungsprozess?
Ich war gerade auf den Philippinen auf der Suche nach passenden Kokosölproduzenten, als ich das erste Gespräch mit der Produktionsfirma führte. Nachdem ich bisher nur Ölraffinerien gefunden hatte, die teils schimmliges Kokosfleisch verarbeiteten, war ich kurz davor, die Suche abzubrechen. Doch plötzlich tat sich eine neue Fährte auf. Ich erzählte von dieser Odyssee – und sie waren begeistert.
Ich habe dabei vor allem eines gelernt: Menschen lieben echte Geschichten. Und die besten Geschichten entstehen nicht am Schreibtisch, sondern da draußen – bei echten Begegnungen, im echten Leben
Wie hast du dann die TV-Show bzw. Aufzeichnung erlebt?
Als die Zusage kam, war ich in einem kleinen Dorf in Sri Lanka. „Eva, du bist genommen. Hast du nächsten Mittwoch Zeit?“ Drei Tage später landete ich in Deutschland – und hatte so gut wie keine Zeit zur Vorbereitung. Aber vielleicht war genau das mein Glück: Mein Pitch war dadurch pur, lebendig, ungefiltert. Ich hatte richtig Lust auf den Dreh. Die Interviews backstage waren ein schöner Auftakt, die Aufregung hinter dem Tor unvergesslich. Als ich dann vor den Löwen stand, war ich fokussiert und klar. Sie waren wirklich sehr höflich und interessiert, kein Gebrüll, kein Zerfleischen – vielleicht doch eher Stubentiger?
Einige „Löwen“ haben deinen Lebensstil als Nomadin infrage gestellt. Wie lässt sich denn ein wachsendes Unternehmen führen, wenn du selbst in der Welt unterwegs bist?
Ich verstehe den Reflex – klassische Unternehmensführung sieht anders aus. Aber MON COURAGE ist kein klassisches Unternehmen. Unser ganzes Konzept basiert auf echter Verbindung: zu den Menschen, die unsere Rohstoffe anbauen, und zu den Kundinnen und Kunden, die unsere Produkte nutzen. Gerade weil ich unterwegs bin, lerne ich die Menschen kennen, die hinter unseren Zutaten stehen. Ich sehe, unter welchen Bedingungen produziert wird, kann direkt und fair einkaufen, neue Ideen entwickeln und Innovationen frühzeitig aufspüren.
Remote zu arbeiten heißt nicht, abwesend zu sein. Im Gegenteil: Ich bin im täglichen Austausch mit meinem Team, wir arbeiten digital und gleichzeitig sehr eng zusammen. Mein Lebensstil erfordert klare Kommunikation, Vertrauen und Teamkolleginnen, die diese Freiheit schätzen. Aber genau das ist ja MON COURAGE: mutig neue Wege gehen.
EU AI Act: Status quo
Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.
Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.
Überblick: Der AI Act
Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten HochrisikoSysteme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.
Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.
Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.
Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.
Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.
Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produktregulierung und Marktüberwachung.
Was fehlt? Guidance und Governance
Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.
Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.
Und wo steht Deutschland?
Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.
Reallabore
Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.
Reaktionen
Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.
Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschiedliche Informationen und Compliance-Nachweise verfügbar sind.
Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.
Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.
Fazit
Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.
Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Herausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.
Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München
Warum KI bei Förderanträgen versagt
Fünf Gründe, warum Unternehmen auf menschliche Intelligenz setzen sollten.
Ob steuerliche Forschungszulage, Investitionsförderung oder EU-Programme. Künstliche Intelligenz (KI) wie ChatGPT liefert in Sekundenschnelle eine Vielzahl möglicher Förderprogramme. Doch zwischen der reinen Information und der tatsächlichen Erschließung von Fördermitteln liegt ein erheblicher Unterschied. Hier gilt es, Unternehmen zu sensibilisieren.
Fördermittel sind heute ein strategischer Bestandteil moderner Unternehmensfinanzierung. Es reicht daher nicht, die Programme zu kennen. Entscheidend ist, sie rechtssicher, vollständig und förderlogisch aufeinander abgestimmt umzusetzen, um die vollen Förderpotenziale zu heben. Genau hier beginnt die Arbeit von Fördermittelexpert*innen.
Fünf Gründe, warum KI-Tools nicht als Fördermittelberater funktionieren
1. KI erkennt die wahren Förderpotenziale nicht
ChatGPT kann erklären, was ein Förderprogramm leistet. Doch welche Kosten eines konkreten Vorhabens tatsächlich und wie hoch förderfähig sind, lässt sich so nicht beurteilen. Gerade bei komplexen Programmen wie der steuerlichen Forschungszulage sind Erfahrung, Struktur und rechtssichere Abgrenzung entscheidend. Eine gute Fördermittelberatung prüft jedes Vorhaben systematisch: von der Förderfähigkeit nach dem Forschungszulagengesetz (FZulG), AGVO oder De-minimis-Verordnung bis hin zur klaren Trennung förderfähiger und nicht förderfähiger Aufwände.
2. KI kann keine Förderstrategien entwickeln
Eine Liste von Förderprogrammen ersetzt keine Strategie. KI kann nur Optionen nennen, aber keine Strategien zur Umsetzung im Unternehmen entwickeln. Eine gute Fördermittelberatung integriert die Forschungszulage sinnvoll in laufende Projekte und strukturiert Innovations- sowie Investitionsprozesse auf Bundes-, Landes- und EU-Ebene. So entstehen nicht nur Optionen, sondern belastbare, wirtschaftlich wirksame Lösungen.
3. KI kann nicht mit Menschen kommunizieren
Ein Antrag ist mehr als ein Formular. Er muss Anforderungen erfüllen und überzeugen. KI liefert Textbausteine, aber führt keine Gespräche und reagiert nicht auf Rückfragen mit der notwendigen Erfahrung in der Verwaltungspraxis der verschiedenen Förderprogramme. Eine gute Fördermittelberatung übernimmt die gesamte Kommunikation mit Förderstellen, koordiniert mit Bescheinigungsstellen und entwickelt formal korrekte und überzeugende Argumentationen.
4. KI endet beim Prompt – Fördermittelberatung bei der erfolgreichen Projektprüfung
Nach dem Antrag geht die Arbeit oft erst richtig los. Rückfragen, Prüfungen, Nachweise. KI kann Unternehmen dabei nicht unterstützen und keine Verantwortung übernehmen. Eine gute Fördermittelberatung hingegen begleitet die Kund*innen durch den gesamten Förderzyklus mit sauberer Dokumentation, revisionssicherer Aufbereitung und Unterstützung bei Audits und Außenprüfungen.
5. KI zeigt nur den Dschungel – Förderexperten finden den Schatz
Datenbanken geben einen Überblick, aber keine Richtung. Eine gute Fördermittelberatung bewertet alle denkbar möglichen Förderprogramme im konkreten Unternehmenskontext und entwickelt daraus konkrete Maßnahmen, um das Maximum an Fördermöglichkeiten für die Kund*innen rauszuholen. Eine gute Fördermittelberatung schafft so echte wirtschaftliche Vorteile statt der bloßen Auflistung von Fördermöglichkeiten.
Der Autor Efe Duran Sarikaya ist CEO der Fördermittelberatung EPSA Deutschland.
Die Rolle von natürlichem Licht in modernen Architekturkonzepten
Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.
Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.
Das wachsende Bewusstsein für Lichtqualität
In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.
Architektonische Vielfalt dank Tageslicht
Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.
Energieeffizienz und Gesundheit
Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.
Materialauswahl und technologische Innovationen
Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.
Planungsaspekte für moderne Gebäude
Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.
Gestalterische Freiheit durch Tageslichtlösungen
Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.
Inspirierende Beispiele aus der Gegenwart
Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.
Ausblick auf künftige Entwicklungen
Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.
„Österreich hat einen langen Atem – und das zahlt sich im Bereich Applied AI aus“
Als führende Standorte in Sachen Künstliche Intelligenz liegen die USA und Asien auf der Hand, doch auch in Österreich gibt es eine vielfältige AI-Landschaft. Welche Vorteile der Standort für künstliche Intelligenz mit sich bringt und welche Rolle dabei Applied AI spielt, weiß Clemens Wasner, Gründer von AI Austria und CEO der EnliteAI.
Clemens Wasner ist Gründer des österreichischen Verbandes für Künstliche Intelligenz, AI Austria und CEO des Wiener Venture Studios EnliteAI. Der studierte Informatiker arbeitete über ein Jahrzehnt in Asien, bevor er 2017 EnliteAI gründete.
Herr Wasner, Sie kennen die AI-Szene aus erster Hand. Wie gut ist Österreich im internationalen Vergleich aktuell aufgestellt, wenn es um Applied AI geht?
Gemessen an seiner Größe steht Österreich erstaunlich gut da. Unsere AI–Landscape verzeichnet mittlerweile über 450 Unternehmen, die aktiv mit KI arbeiten – nicht nur Start-ups, sondern auch klassische Industrieunternehmen, Dienstleister und der öffentliche Sektor. Gerade im Bereich der industriellen Anwendungen ist Österreich breit aufgestellt: Es gibt zahlreiche Corporates, die eigene Competence Center gegründet, Ausgründungen vorgenommen oder Lizenzmodelle für KI aufgebaut haben. Auch die Zahl der Inkubatoren und Corporate Venture Capitalisten ist beachtlich. Das Thema ist in der Realwirtschaft angekommen – und das nicht erst seit gestern. Bereits 2018 gab es hierzulande einen deutlichen Aufschwung. Im Bereich der Spitzenforschung sind wir ebenfalls stark: Mit drei sogenannten ELLIS-Hubs – European Laboratory for Learning and Intelligent Systems – gehören wir zur europäischen Spitze, gemessen an der Größe des Landes.
Sie sprechen beim Blick auf Österreich oftmals vom „AI-Standort mit langem Atem“. Was genau meinen Sie damit und was macht aus Ihrer Sicht einen exzellenten Standort für AI-Start-ups aus?
Der „lange Atem“ ist positiv gemeint und beschreibt das, was Österreich im Bereich Forschung & Entwicklung auszeichnet: kontinuierliche Investitionen, strategischer Weitblick und langfristige Förderstrukturen. Die Steiermark war lange OECD-Spitzenreiter bei F&E-Ausgaben, Wien verfügt über eine dichte Forschungslandschaft. Das sind keine kurzfristigen Hypes, sondern über Jahrzehnte gewachsene Strukturen. Österreich verfügt zudem über eine differenzierte Förderarchitektur, die alle TRL-Stufen abdeckt – von der Grundlagenforschung bis zur Markteintrittsunterstützung. Auch Clusterstrukturen spielen eine Rolle: In Life Sciences etwa gibt es in Wien und Graz funktionierende Ökosysteme, in denen zunehmend auch KI eine Rolle spielt. Diese Verankerung ermöglicht Planbarkeit, die gerade in technologieintensiven Bereichen entscheidend ist.
Zu den Schlüsselfaktoren einen erfolgreichen Standorts zählen Infrastruktur, Talent Pool und Anwendungsmöglichkeiten. Wo sehen Sie hier derzeit die größten Hebel – und auch die größten Defizite – in Österreich?
Ein klarer Vorteil liegt in der Verfügbarkeit von Talenten: Wien zieht seit Jahren hochqualifizierte Developer aus dem osteuropäischen Raum an. Der AI-Fachkräftemangel ist hier weniger ausgeprägt als in anderen europäischen Hauptstädten. Hinzu kommt: Österreich bildet mehr AI-Absolventen aus, als die Wirtschaft derzeit absorbieren kann. Das schafft einen Bewerbermarkt, der gerade für Start-ups günstig ist. Auch Standortfaktoren wie Lebensqualität und erschwingliche Mieten machen zum Beispiel die Hauptstadt Wien attraktiv. Als Besonderheit sehe ich zudem den aktiven Zugang der Stadt: Wien versteht sich als First Client für KI-Anwendungen, etwa in der Analyse von Geodaten, IoT oder der Digitalisierung von Baueinreichprozessen. Hier ist wesentlich mehr Offenheit für politische Vergabe zu finden als in anderen Ländern. Weniger stark ist Wien in der Spitzenforschung vertreten, hier liegt Linz mit der JKU vorn. Aber man kann als kleines Land nicht alles abdecken – und sollte dort Schwerpunkte setzen, wo bestehende Stärken ausbaubar sind.
Was war der Gründungsimpuls für EnliteAI und wie ist Ihr Venture Studio heute aufgestellt?
Ich kam 2016 nach zehn Jahren in Asien zurück nach Österreich. In China und Japan war KI allgegenwärtig, ein regelrechter Hype. Zurück in Europa herrschte Funkstille – das war ein Kulturschock. Ich wollte dem Thema hierzulande Schub geben: 2017 gründete ich den Verband AI Austria und kurz darauf EnliteAI. Unsere Erkenntnis aus früheren Projekten zeigte, dass viele Unternehmen gute Ideen, aber keine Ressourcen zur Umsetzung hatten. Daraus entstand das Venture Studio: Wir entwickeln Prototypen gemeinsam mit Unternehmen und gründen darauf spezialisierte Start-ups. Aktuell sind wir 20 Personen und verfolgen zwei Themen – Detekt, das sich auf den Bereich Mobile Mapping spezialisiert hat, und ein weiteres im Stromnetzmanagement. Mit EnliteAI möchten wir künftig weitere Projekte unterstützen und bereiten dafür eine Dual-Entity-Struktur mit einem eigenen Fonds vor. Ziel ist es, das Modell professionell zu skalieren und Investoren direkt in die Spin-outs zu bringen.
Rechenleistung zählen zu den Schlüsselressourcen in der AI. Was braucht es aus Ihrer Sicht, damit europäische Standorte hier nicht dauerhaft in Abhängigkeit geraten?
Realistisch betrachtet: Die Abhängigkeit besteht bereits. Die großen Hyperscaler sind US-dominiert, ebenso Chips, Kommunikationstools, Social Networks. Europa muss in die digitale Souveränität investieren. Erste Schritte wie AI Factories sind wichtig, aber nicht ausreichend. Wir brauchen europäische Cloud-Anbieter, Chipproduktion auf europäischem Boden und eine nachhaltige Energiepolitik. Frankreichs KI-Boom basiert auf Atomstrom – weil er langfristig planbar ist. Diese Planbarkeit fehlt in vielen europäischen Ländern derzeit. Ohne Strom gibt es keine KI. Auch das zeigen Stimmen von Sam Altman, Elon Musk und anderen. Hier ist ein strategischer Paradigmenwechsel notwendig.
Sie sprachen bereits die vielfältige Landschaft von kleinen und mittleren Unternehmen in Österreich an, die offen für KI sind. Wie gut funktioniert das Matching zwischen Start-ups und klassischen Industrieunternehmen?
Österreich macht hier sehr viel richtig. Es gibt ein breites Netz an Förderinstrumenten – von der Österreichischen Forschungsförderungsgesellschaft FFG über die Austria Wirtschaftsservice bis hin zu regionalen Wirtschaftskammern. Zudem bietet Österreich eine Forschungsförderungsprämie an, bei der 14 Prozent der F&E-Ausgaben quasi mit einem Blankoschein gefördert werden können. Zudem organisieren viele Institutionen aktiv Matchmaking-Events, etwa im Rahmen von PreSeed-, AI-Adoption- oder Innovationsprogrammen. Hinzu kommt der Industry-Startup-Marktplatz mit mehreren Tausend registrierten Unternehmen. Auch Pitchings werden gefördert. Das Ziel ist stets, AI nicht nur in der Theorie zu belassen, sondern in die Realwirtschaft zu bringen. Trotzdem: Viele Unternehmen wissen noch immer nichts davon. Hier braucht es also noch mehr Aufklärung.
Welcher KI-Standort – in Österreich und darüber hinaus – hat Sie zuletzt positiv überrascht?
In Österreich ist Linz für mich der Hotspot schlechthin – die Kombination aus Spitzenforschung und erfolgreichem Technologietransfer ist dort besonders gut gelungen. International beeindruckt mich Twente in den Niederlanden: kein großer Name, aber mit klarer Strategie. Sie haben das Spin-out-Modell von Oxford und Cambridge adaptiert und konsequent umgesetzt – mit IP-Offices, Gründungsberatung und Infrastruktur für Start-ups. Ein weiteres Vorbild ist Heilbronn mit den Campus Founders: Sie haben, unterstützt durch die Dieter Schwarz Stiftung, einen Ort für Unternehmertum und Innovationen geschaffen und könnten Vorbild für viele europäische Regionen werden. Viele Stiftungen schaffen Parks oder Schlösser, aber wesentlich gewinnbringender wäre die Förderung von Entrepreneurship wie es in Heilbronn passiert statt Museumsstiftung. Europa braucht diese neue Denkweise.
Clemens Wasner, vielen Dank für das Gespräch.
Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin
Was Unternehmen über KI-Agenten wissen müssen
Künstliche Intelligenz in Form autonomer Agenten gewinnt rasant an Bedeutung. Doch wie arbeiten diese KI-Agenten? Was ist bei der Umsetzung zu beachten? Hier gibt's die Antworten.
Die Idee, dass autonome Systeme eng mit Menschen zusammenarbeiten und sie gezielt unterstützen, ist keine Vision mehr, sondern Realität. Während bisher eine umfassende Problemlösungskompetenz im Hintergrund fehlte, bringen KI-Agenten genau diese Fähigkeit mit und übernehmen zunehmend vielfältige Aufgaben in der Arbeitswelt. Wir erklären, was Unternehmen über KI-Agenten wissen müssen.
Was sind KI-Agenten und auf welcher Technologie basieren sie?
KI-Agenten sind Softwaresysteme, die eigenständig Aufgaben ausführen, aus Erfahrungen lernen und dynamisch mit ihrer Umgebung interagieren. Ihr Ziel ist es, Aufgaben autonom zu lösen, ohne dass ein kontinuierliches menschliches Eingreifen notwendig ist. Im Unterschied zu herkömmlichen Automatisierungslösungen bewältigen KI-Agenten selbst komplexe Anforderungen, indem sie sich an neue Bedingungen anpassen. Auch werden sie im Gegensatz zu universellen LLMs in der Regel fein abgestimmt, um Relevanz und Datenschutz zu gewährleisten. Sinnvoll ist eine kontextbezogene Architektur, die kausale KI, Document AI und multimodale Logik kombiniert und damit optimal auf geschäftliche Anwendungsfälle zugeschnitten ist.
In welchen Bereichen der Arbeitswelt entfalten KI-Agenten ihr Potenzial?
KI-Agenten finden in nahezu allen Unternehmensbereichen Einsatzmöglichkeiten – von der Beantwortung einfacher Anfragen bis hin zur Steuerung komplexer Prozesse. Eingebettet in CRM-Plattformen analysieren sie riesige Datenmengen, die Unternehmen manuell nicht mehr auswerten können. Anstatt die Ergebnisse lediglich zu präsentieren oder Kontakte nach Prioritäten zu sortieren, qualifizieren KI-Agenten auch noch automatisch Leads, schlagen passende Angebote vor und beantworten Kundenanfragen. Oder anders formuliert: Während herkömmliche Tools in der Regel auf statischen Wenn-dann-Regeln basieren, führt die neue Generation hyperpersonalisierte Aktionen nahezu in Echtzeit aus. Diese Entwicklung entlastet Mitarbeiter von Routineaufgaben und gibt ihnen Raum, sich auf strategisch wichtige Aufgaben zu konzentrieren. Unternehmen wiederum können ohne großen Aufwand Tausende von Kunden individuell betreuen.
Werden KI-Agenten den Arbeitsmarkt verändern?
Diese Frage lässt sich nicht pauschal beantworten. Es entstehen durch den verstärkten Einsatz von KI-Lösungen neue Berufsfelder – insbesondere bei der Entwicklung, Integration und Wartung solcher Agentensysteme werden qualifizierte Fachkräfte benötigt. Gleichzeitig stellt sich die Herausforderung, bestehende Mitarbeitende gezielt im Umgang mit diesen Technologien weiterzubilden und deren digitale Kompetenzen auszubauen. Eines muss klar sein: Das Ziel von KI-Agenten ist es nicht, menschliche Arbeitskraft zu ersetzen, sondern deren Fähigkeiten zu erweitern. Mitarbeitende können sich somit stärker auf komplexe Kundeninteraktionen oder die Entwicklung innovativer Kampagnen konzentrieren, während ihnen die KI zur Hand geht.
Worauf müssen Unternehmen bei der Auswahl von KI-Agenten-Lösungen achten?
In erster Linie benötigen sie eine digital ausgereifte Umgebung mit einheitlichen Datenformaten, optimierten Prozessen und regelbasierten Automatisierungen, um den ROI steigern zu können. Anschließend müssen sie sicherstellen, dass ihre KI-Systeme den geltenden Datenschutzbestimmungen entsprechen und sensible Kund*innendaten optimal geschützt sind. Transparenz und Nachvollziehbarkeit der KI-Entscheidungen sind ebenfalls essenziell, um das Vertrauen von Kunden und Mitarbeitenden nicht zu gefährden. Auf technischer Seite ist eine interoperable Lösung notwendig, die sich so nahtlos wie möglich in die bestehende IT-Umgebung integrieren lässt. Zu den weiteren Aspekten zählen die Priorisierung der kontextuellen Abstimmung, da Agenten geschäftsspezifische Arbeitsabläufe und Datenformate verstehen müssen, sowie die Nutzung eines Federated-Model-Ansatzes statt einheitlicher LLM-Frameworks, um Effizienz, Erklärbarkeit und Kosten zu optimieren.
Wie binden Unternehmen ihre Mitarbeitenden am besten ein?
Zunächst einmal ist ein grundlegendes Change Management erforderlich. Die Mitarbeiterinnen und Mitarbeiter müssen verstehen, dass die KI ihnen nicht die Arbeit wegnimmt, sondern sie unterstützen soll. Sinnvoll ist auch ein Low-Code-Ansatz: Maßgeschneiderte KI-Applikationen und automatisierte Workflows steigern die Arbeitseffizienz in Abteilungen um ein Vielfaches – sogar Mini-Anwendungen, die lediglich einfache Aufgaben übernehmen. Jedoch können zentrale IT-Abteilungen, die mit Entwicklungsanfragen aus verschiedenen Abteilungen überhäuft werden, diese kaum bewältigen. Mit einer Low-Code-Application-Plattform (LCAP) können auch Mitarbeiter ohne Programmierkenntnisse einfache KI-Anwendungen selbst erstellen. Möglich machen das einfache Drag-and-Drop-Optionen und vorgebaute Module, die je nach Wunsch kombinierbar sind.
Fazit
KI-Agenten sind als kollaborative Partner zu verstehen, nicht als Ersatz für den Menschen. Künftig werden wir eine Multi-Agent Collaboration sehen. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um selbst die komplexesten Herausforderungen effizient zu lösen.
Der Autor Sridhar Iyengar ist Managing Director von Zoho Europe.
DefenseTech-Report 2025
Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Wie DefTech-Start-ups Sicherheit und Verteidigung durch Innovationskraft, Agilität und Flexibilität revolutionieren.
Der russische Überfall auf die Ukraine im Februar 2022 markierte einen Wendepunkt für die deutsche Verteidigungspolitik. Der Bundeskanzler rief die „Zeitenwende“ aus – einen Kurswechsel, der u.a. ein Sondervermögen von 100 Mrd. Euro für die Bundeswehr einschloss. Seither rücken technologische Innovationen für die Verteidigung verstärkt in den Fokus. DefenseTech-Start-ups (auch DefTechs genannt) – also junge Technologieunternehmen mit rein militärischen oder Dual-Use-Anwendungen (zivil und militärisch) – erleben seitdem einen Aufschwung. Die USA haben deutlich signalisiert, dass ihre Bereitschaft, als Arsenal der Demokratie unbegrenzt westliche Verteidigung zu finanzieren, nachlässt. Europa, Deutschland im Besonderen, muss also eigene Innovationskraft mobilisieren, um wirksam abschrecken zu können.
Start-ups im Gefechtsfeld der Zukunft: Lehren aus dem Ukraine-Krieg
Der russische Angriffskrieg offenbart, welche Technologien und Akteur*innen auf dem Gefechtsfeld der Zukunft dominieren werden. Auffällig ist, wie ein verteidigungsnahes Innovationsökosystem aus Tech-Start-ups und Dual-Use-Technologien in der Ukraine binnen kurzer Zeit Lösungen hervorbrachte, die Russlands konventionelle Überlegenheit teilweise neutralisierten.
Die ukrainischen Streitkräfte setzen neue Taktiken und Waffensysteme zudem mit einer Agilität ein, die westliche Armeen – mit ihren oft jahrelangen Beschaffungszyklen – nicht erreichen.
Im Ukraine-Krieg haben sich vor allem Drohnen als Gamechanger erwiesen. First-Person-View-(FPV)-Drohnen fungieren gleichsam als „Infanterie“ der Drohnenkriegsführung – sie sind zu einer tragenden Säule von Kiews Kriegsanstrengungen geworden und verursachen Schätzungen zufolge bis zu 80 Prozent der russischen Verluste auf dem Gefechtsfeld.
Ukrainische Herstellende – vielfach kleine Firmen – produzieren aktuell rund 200.000 FPV-Drohnen pro Monat und ersetzen zunehmend importierte Bauteile durch eigene Entwicklungen. Solche billigen Mini-Drohnen können aber Panzer oder Radaranlagen im Wert von Millionen zerstören – ein eklatantes Kosten-Nutzen-Missverhältnis zu Ungunsten klassischer Wehrtechnik. Daneben prägen Loitering Munitions (umherschweifende „Kamikaze-Drohnen“) den Konflikt.
Überhaupt redefiniert die Ukraine den Drohneneinsatz: Wie Forbes berichtete, wurde entlang der Front ein rund 25 km breiter „Kill-Zone“-Streifen eingerichtet, patrouilliert von Schwärmen kleiner Drohnen, der feindliche Truppenansammlungen nahezu unmöglich macht – die NATO erwägt bereits eine ähnliche „Drone Wall“ zum Schutz ihrer Ostflanke. Die Allgegenwart von Drohnen rief freilich elektronische Gegenmaßnahmen auf den Plan: Beide Seiten überziehen sich mit immer neuen Electronic-Warfare-Taktiken, vom Stören und Spoofen von GPS- und Funkverbindungen bis hin zu improvisierten physischen Schutzgittern („cope cages“) an Fahrzeugen. Im Gegenzug werden jetzt verstärkt per Glasfaser ferngelenkte Drohnen entwickelt, die gegen Funk-Jamming immun sind. Auch im Cyber-Raum tobt der Schlagabtausch, der jedoch trotz einzelner schwerer Angriffe offenbar bislang keine strategisch entscheidenden Wirkungen erzielte.
Den größten Wert haben Cyber-Operationen daher bislang für Aufklärung und Störung gegnerischer Kommunikation. Insgesamt gilt dieser Krieg auch als erster großer Konflikt, in dem kommerzielle Technik so umfassend militärisch genutzt wird, dass Beobachtende bereits vom ersten „kommerziellen Raumfahrtkrieg“ sprechen. Private Satelliten liefern der Ukraine rund um die Uhr Geodaten und Aufklärung, während tausende Starlink-Terminals ein robustes Kommunikationsnetz auf dem Gefechtsfeld sicherstellen. Ebenso werden zivil verfügbare Drohnen, handelsübliche 3D-Drucker und KI-Software in militärische Anwendungen überführt. Mit erschwinglichen Geräten und Software lässt sich realisieren, was früher teuren Spezialkräften vorbehalten war. Die Kehrseite ist, dass die Trennung zwischen zivilem und militärischem Bereich zunehmend verschwimmt, was ethische und sicherheitspolitische Fragen aufwirft.
Die Rolle von Start-ups
Viele dieser Innovationen wurden nicht von Rüstungsriesen ersonnen, sondern von kleinen, agilen Akteur*innen. In der Ukraine stützt man sich auf eine lebhafte Tech-Start-up-Szene und eine flexible Rüstungsindustrie, um Russlands zahlenmäßige Vorteile auszugleichen. Die Iterationsgeschwindigkeit ist beeindruckend: Die Entwicklungszyklen für neue Lösungen sind von Jahren auf Monate, Wochen oder gar Tage geschrumpft. Agile Start-ups und Entwickler*innen-Teams an der Front reagieren in Echtzeit auf Bedrohungen. Sie fügen ständig neue Gegenmaßnahmen und Verbesserungen hinzu, um der Gegenseite immer einen Schritt voraus zu sein.
Dieser direkte Innovationsloop vom Gefechtsfeld in die Werkstatt und zurück beschleunigt den Fortschritt enorm. So schießen etwa ukrainische Drohnen-Workshops buchstäblich in Kellern und umfunktionierten Supermärkten aus dem Boden, um Produktion und Entwicklung selbst unter Beschuss aufrechtzuerhalten. Start-ups bringen eine Kultur der schnellen Iteration ein, die klassische Rüstungsbetriebe so nicht kennen. Das Ergebnis: 500-US-Dollar-Drohnen werden im Feld per Trial-and-Error optimiert und können anschließend einen 5-Mio.-US-Dollar-Panzer ausschalten.
Gründungs-Boom im Verteidigungssektor
Auch außerhalb der Ukraine hat der Krieg einen Gründungs-Boom ausgelöst. Wagniskapital fließt so stark wie nie in europäische Verteidigungs- und Sicherheits-Technologie: 2024 wurden in diesem Sektor 5,2 Mrd. US-Dollar investiert – ein Allzeithoch. Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Einige staatlich unterstützte VC-Fonds in Europa, wie z.B. SmartCap aus Estland, fördern mittlerweile explizit Rüstungsinvestments. Zwar ist die europäische VC-Branche aufgrund vertraglicher Bindungen insgesamt noch zögerlich, doch die Zurückhaltung wirkt 2025 überholt. Schließlich zeigt der Ukraine-Krieg, dass technologische Innovation das Kriegsgeschehen entscheidend beeinflusst – eine Wahrheit, die in den vergangenen Friedensdekaden in Vergessenheit geriet.
Auch in Deutschland entsteht ein dynamisches Ökosystem, das viele Technologiefelder abdeckt. Die wichtigsten sind künstliche Intelligenz und autonome Systeme, Quantentechnologien, Human Enhancement, Hyperschalltechnologien, neuartige Materialien und Fertigungsverfahren, Raumfahrttechnologien, Advanced Manufacturing sowie resiliente Energiesysteme. Die Bitkom befragte kürzlich 44 deutsche DefTech- und Dual-Use-Start-ups, aber die Dunkelziffer dürfte höher liegen, da inzwischen viele DeepTech-Start-ups mit dem Verteidigungsmarkt liebäugeln.
So hat das Digital Hub Security & Defense BASED während der letzten Münchner Sicherheitskonferenz 80 DefTech-Start-ups auf dem „Sicherheitsfrühstück“ einer fast ebenso großen Zahl an Investor*innen vorgestellt. BASED hat sich auf die Fahnen geschrieben, DefTech-Start-ups „investment ready“ zu machen. Und viele Gründer*innen und Talente entscheiden sich angesichts der Bedrohungslage auch „mission driven“ für die Verteidigung, um einen Beitrag zum Schutz unserer Demokratie zu leisten.
Ein Beispiel für ein erfolgreiches europäisches VerteidigungsStart-ups ist neben ARX Robotics (mehr dazu liest du hier in der Coverstory unserer Magazin-Ausgabe 02/25) oder Quantum Systems aus München auch das Unicorn Helsing, das den HX-2-Drohnenjäger entwickelte und Produktionskapazitäten in Deutschland aufbaut, um monatlich vierstellige Stückzahlen zu liefern. Solche Newcomer zeigen, wie Innovationskraft, Tempo und Skalierung im Ernstfall aussehen können – und dass Start-ups mit unkonventionellen Ansätzen binnen kurzer Zeit Fähigkeiten bereitstellen könnten, für deren Entwicklung traditionelle Rüstungsprogramme in der Vergangenheit Jahrzehnte gebraucht haben. Nicht zuletzt hat der Krieg die Produktionslogik verändert: Entscheidend ist nicht mehr, ein Waffensystem mit allen erdenklichen Sonderwünschen als „Goldrandlösung“ zu perfektionieren, sondern es schnell und robust in großen Stückzahlen bereitzustellen. Auch deutsche Rüstungsfirmen wie Hensoldt sprechen von einem Paradigmenwechsel: weg von der früheren „Boutique“-Fertigung hin zur Massenproduktion. Geschwindigkeit schlägt Sonderanfertigung: Statt monatelanger Feintuning-Schleifen gilt nun, was an der Front sofort wirkt.
Lehren für den Westen und Deutschland
Was bedeuten diese Erfahrungen für die Bundeswehr und ihre Partner*innen? Zunächst, dass Beschaffungsbürokratien und veraltete Prozesse zum Sicherheitsrisiko werden. In der Ukraine hat sich der traditionell träge Militärapparat unter existenziellem Druck rasant gewandelt. Westliche Länder müssen diese Lektionen proaktiv aufgreifen. Im Schnitt dauern Rüstungsprojekte in Deutschland sechs bis sieben Jahre – eine so lange Durststrecke überlebt kein Start-up in der schnelllebigen Tech-Welt. In der Vergangenheit haben sich talentierte Gründer*innen und Investor*innen daher lukrativeren Branchen zugewandt, statt jahrelang auf einen Durchbruch im Verteidigungssektor zu hoffen. Wollen staatliche Stellen die Innovationskraft der Start-up-Welt nutzen, müssen sie nun zu verlässlichen und schnelleren Kund*innen werden. Dazu gehört, Vergabeverfahren radikal zu verschlanken, mehr Wettbewerb und Transparenz zu schaffen und nicht-traditionelle Anbieter*innen aktiv einzubinden.
Die Politik hat dies erkannt: In Berlin hat sich die neue Koalition vorgenommen, die langsamen Beschaffungsabläufe grundlegend zu reformieren. Eine Analyse des Wirtschaftsministeriums (BMWK) identifizierte bereits 2023 Bremsklötze: übermäßige parlamentarische Einmischung bei jedem Auftrag über 25 Mio. Euro, komplizierte Regulierung sowie zu enge Grenzen bei der Forschungsförderung. Diese Hürden führen dazu, dass Innovationen im „Tal des Todes“ versickern – dem Übergang von Prototypen in die Serienbeschaffung. Durch bürokratische Verzögerungen verliert neue Technik dort kritische Zeit und Schwung, bisweilen verschwindet sie ganz. Um das zu verhindern, muss es strukturelle Änderungen geben: von der Verstetigung von Innovationsbudgets über beschleunigte Genehmigungswege bis hin zur besseren Verzahnung von zivilen Talenten mit militärischen Bedarfsträger*innen. Kurz: Die Streitkräfte dürfen nicht länger in Friedensroutine verharren.
Zugleich müssen Produktionskapazitäten hochgefahren werden. Der Krieg lehrt, dass eine industriell-logistische Mobilmachung nötig ist, um im Ernstfall genug Material bereitstellen zu können – seien es Munition, Drohnen oder Ersatzteile. Dafür braucht es auch neue Geschäftsmodelle und modulare „Factories“ in Europa, die bei Bedarf binnen kürzester Zeit die Ausstoßzahlen hochskalieren können. Auch Abhängigkeiten von langen und störanfälligen Lieferketten im Bereich der Rohstoffe und Komponenten müssen reduziert werden.
Generell sollten westliche Regierungen verstärkt Kapital in junge Verteidigungsfirmen lenken – etwa durch Wagniskapitalfonds oder Innovationsprogramme – und verhindern, dass große Rüstungskonzerne vielversprechende Neulinge bloß aufkaufen, um deren Technologien vom Markt zu nehmen. Die Innovationsökosysteme rund um Verteidigung müssen sorgfältig kultiviert werden, damit die aktuelle Aufbruchsstimmung nicht abrupt endet. Dazu gehört auch ein Mentalitätswandel bei Investor*innen: Die Jahrzehnte währende Scheu vor Wehrtechnik-Investments ist nicht mehr zeitgemäß – letztlich hängt die Sicherheit Europas von unserer technologischen Stärke ab.
Fazit
Der Ukraine-Krieg führt vor Augen, wie künftig Kriege entschieden werden: durch Geschwindigkeit und Innovationskraft. Günstige, flexibel einsetzbare Technologien – oft entwickelt von neuen Akteur*innen – können hochgerüstete Gegner*innen ins Wanken bringen. Start-ups avancieren hierbei zum strategischen Faktor. Sie liefern Agilität, frische Ideen und die Fähigkeit, sich im Kriegsverlauf iterativ anzupassen.
Die Autorin Prof. Dr. Rafaela Kraus ist Professorin für Unternehmens- und Personalführung soeir ehem. Vizepräsidentin der Universität der Bundeswehr München und hat dort u.a. das Entrepreneurship-Center founders@unibw ins Leben gerufen. Als Defense-Innovation-Expertin ist sie Initiatorin von BASED, dem Münchner Digital Hub Security & Defense
fünfeinhalb Funksysteme: Echtzeit-WLAN für die Industrie
Das 2023 als Ausgründung aus der TU Dresden gegründete Start-up fünfeinhalb Funksysteme stellt mit BlitzFunk eine 5G-Alternative für industrielle Anwendungen vor.
Die Einführung des Mobilfunkstandards 5G sollte die drahtlose Kommunikation nicht nur für den Consumer-Markt revolutionieren, sondern auch den Weg hin zur Industrie 4.0 mit vollvernetzten, intelligenten Fabriken ebnen. Doch bis heute können kommerzielle 5G- sowie zahlreiche WLAN-Systeme die Echtzeitanforderungen industrieller Anforderungen meist nicht erfüllen: Verzögerungen in der Datenübertragung (Latenzen) führen zu oft zu Systemstopps und Ausfällen ganzer Anlagen. Das Dresdner Start-up fünfeinhalb Funksysteme GmbH hat es sich zum Ziel gesetzt, dies zu ändern. Mit BlitzFunk, einem Echtzeit-WLAN-System mit berechenbaren Latenz-Garantien sowie latenzfreiem Roaming, ist ihm dies gelungen.
Fünfeinhalb Funksysteme wurde 2023 als Ausgründung aus der TU Dresden gegründet, mit dem Ziel, die nicht eingehaltenen Versprechen des Mobilfunkstandards 5G einzulösen und für Anwendungen im industriellen Umfeld nutzbar zu machen. Dafür hat das fünfköpfige Gründerteam rund um Geschäftsführer Dr. Lucas Scheuvens BlitzFunk entwickelt. Das Funksystem – bestehend aus Access Points und Clients – ist so konzipiert, dass es als eine koordinierte Einheit agiert. Die Anwendergeräte (Maschinen, Steuerungen oder Sensoren) werden über Ethernet mit dem System verbunden.
Latenzfreies Roaming ohne Unterbrechung
Einen der größten USPs des Funksystems fasst Dr. Lucas Scheuvens wie folgt zusammen: „Bei einem klassischen Roaming-Prozess, der in räumlich größeren Netzwerken immer nötig ist, ist der Client jeweils mit nur einem Access Point verbunden. Bevor er dessen Reichweite verlässt, muss er mit dem nächsten Access Point verknüpft werden. Das heißt, dass dort die Verbindung zum ersten Access Point ab- und zum nächsten Access Point neu wieder aufgebaut wird. Verschiedene Lösungen können dies zwar besonders schnell, aber es gibt immer einen zeitlichen Break. Bei Blitzfunk ist das nicht so, da unsere Access Points sich koordinieren und somit latenzfreies Roaming garantieren. Dabei koordinieren sie sich im Hintergrund automatisch so, dass sie sich nicht gegenseitig stören. Da das Roaming im BlitzFunk-System keinerlei negative Auswirkungen hat, entfällt auch die aufwendige und kostenintensive Funknetzplanung.“
Entwickelt für die Anforderungen der Industrie 4.0
BlitzFunk garantiert eine schnelle Datenübertragung – selbst bei mehreren verbundenen Geräten (Clients): Für 99,9999 Prozent aller Sendeversuche liegt die Latenz – so das Unternehmen – nachweislich bei maximal 2 × (N + 1) Millisekunden, wobei N die Anzahl der gleichzeitig aktiven Geräte ist – und das bei maximaler Ethernet-Framegröße von 1500 Bytes. Ein einzelner Client im System hat demnach eine garantierte Latenz von 4 Millisekunden, bei zehn Clients sind demnach 22 Millisekunden erwartbar, usw. Diese Garantie gilt auch für den Roaming-Fall, was vollständig unterbrechungsfreie Datenverbindungen für anspruchsvollste Industrie-Anwendungen ermöglicht.
Doch das Funksystem hat noch weitere Vorteile: es verhält sich wie ein verteilter Ethernet-Switch und bietet somit Plug&Play-Kompatibilität mit allen Ethernet-basierten Protokollen, inklusive Profinet, Profisafe, EtherNet/IP, CIP Safety und MQTT. Dazu kommen seine einfache Inbetriebnahme und Verwaltung über einen Webbrowser, was beides ohne spezielle technische Kenntnisse möglich ist. Ein weiterer Pluspunkt ist das eingebaute Troubleshooting, dank dem sich das Funksystem als Fehlerquelle eindeutig identifizieren (z.B. bei Überlastung) oder ausschließen lässt. Nicht zuletzt punktet das Funksystem auch in Bezug auf die Security mit geräteindividueller, quantensicherer Verschlüsselung sowie Authentifizierung.
Gemacht für mobile Anwendungen in der Logistik und Fertigungsbranche
Fünfeinhalb Funksysteme richtet sich insbesondere an Hersteller bzw. Systemintegratoren, die eine mobile Vernetzung ihrer Maschinen benötigen, die genauso zuverlässig funktioniert wie eine Kabelverbindung. Scheuvens erklärt dazu: „Obwohl sich mit BlitzFunk auch existierende Kabelinstallationen ersetzen lassen, ist das nicht unser Hauptanspruch. Konzipiert wurde das System hauptsächlich für Einsatzszenarien in der Fertigung, die mobile Roboter oder Fahrzeuge umfassen. Aber auch für Schlittensysteme und rotierende Elemente ist BlitzFunk geeignet – bzw. generell überall dort, wo Kabel stören oder technisch nicht sinnvoll einsetzbar sind“. Zu den zahlreichen, bereits erfolgreich durchgeführten Projekten zählen Vernetzungen von Schweißrobotern, Deckenkränen und fahrerlosen Transportfahrzeugen – sowohl im Safety- als auch Non-Safety-Bereich.
Blick in die Zukunft: Noch mehr Leistung
Gefragt nach einem Blick in die Zukunft des Unternehmens antwortet Scheuvens: „Aktuell basiert BlitzFunk auf klassischen, für den breiten Massenmarkt konzipierten Standard-Komponenten. Das macht die Lösung sofort und mit einem großen Mehrwert gegenüber anderen Systemen einsetzbar, demonstriert aber nur einen Bruchteil dessen, was möglich ist. Aktuell arbeiten wir an einem komplett integrierten Echtzeit-WLAN-System, das dann selbst BlitzFunk in den Kategorien Größe, Anzahl der gleichzeitig unterstützten Geräte, Zuverlässigkeit, Latenz und Energieverbrauch noch jeweils um den Faktor zwei bis zehn verbessern kann. Wir freuen uns auf die Reise!“
Münchner Scale-up Wemolo erreicht Break-even
Mit KI zur Profitabilität: Das 2019 gegründete Münchner Tech-Scale-up Wemolo, der "schrankenlose Parkraumspezialist", verzeichnet nach eigenen Angaben ein durchschnittliches Jahreswachstum von 280 Prozent, ist profitabel und verwaltet mehr als 255.000 Stellplätze in Europa.
Die digitale Transformation von Parkplätzen birgt großes Potenzial – vor allem, wenn sie nicht nur Schranken und Tickets eliminiert, sondern neue Geschäftsmodelle erschließt. In einem europäischen Markt für automatisierte Parksysteme, der auf 50 Milliarden Euro geschätzt wird, hat sich das Münchner Unternehmen Wemolo innerhalb kürzester Zeit in die erste Liga gearbeitet.
Mit einem Jahresumsatz von rund 40 Millionen Euro im Jahr 2024 und einer positiven EBIT-Marge im ersten Quartal 2025 hat das Scale-up trotz des signifikanten Wachstums die Gewinnzone erreicht. Die jährliche Wachstumsrate betrug seit Gründung 2019 durchschnittlich 280 Prozent (CAGR), was Wemolo laut Deloitte zu einem der am schnellsten wachsenden Tech-Unternehmen Deutschlands macht. Nach mehreren Finanzierungsrunden mit insgesamt rund 30 Millionen Euro (650.000 € Pre-Seed, 4,7 Mio. € Seed, 15 Mio. € Series A und zuletzt 10 Mio. € Growth Financing durch Partner wie die CIBC Innovation Banking) untermauert Wemolo damit die Attraktivität digitaler Parklösungen als Wachstumsbranche.
“Wir haben unsere Skalierungsphase genutzt, um parallel die Entwicklung unserer Technologie zu beschleunigen und rasch Marktanteile in fünf europäischen Ländern zu gewinnen”, sagt Wemolo-Mitgründer und CEO Dr. Yukio Iwamoto. Zu den Investor*innen zählen neben den strategischen Partnern Armira Growth und henQ auch die Flix Founders (Gründerteam des Mobilitätsanbieters Flix), wobei Jochen Engert dem Unternehmen als Beirat zur Seite steht.
"Dass sich Wemolo nach vergleichsweise kurzer Zeit ins Plus gearbeitet hat, ist das Ergebnis unseres kapitaleffizienten Wachstumskurses - mit deutlich weniger Investitionskapital als bei vergleichbaren Tech-Unternehmen. Unser KI-basiertes System liefert für Immobilieneigentümer, Asset-Manager, Einzelhandel und Kommunen nicht nur digitale Parklösungen, sondern auch wertvolle Daten für strategische Geschäftsentscheidungen", so Jochen Engert.
Vom Campus-Projekt zur Digitalplattform
Ursprünglich im Juli 2019 aus einem Projekt der UnternehmerTUM entstanden, betreibt Wemolo heute KI-basierte Kamerasysteme zur Kennzeichenerfassung und Abrechnung an über 3.000 Standorten in fünf Ländern. Täglich erfasst das Unternehmen mehr als zwei Millionen Parkvorgänge digital und wickelt diese ab. Das Unternehmen beschäftigt aktuell rund 250 Mitarbeitende und verwaltet insgesamt 255.000 Stellplätze – von Supermärkten und zentralen Parkhäusern über Krankenhäuser bis hin zu Freizeitanlagen wie Skigebieten und Badeseen.
"Unsere Profitabilität basiert nicht auf Kostendiät, sondern auf nachhaltiger Skalierung: mehr Volumen bei stabilen Fixkosten, bessere Flächenauslastung und immer wertvollere Daten-Assets für unsere Kunden", erklärt CEO und Mitgründer Jakob Bodenmüller. "Dank unserer KI-basierten Plattform können wir sehr schnell auf Marktanforderungen reagieren und unsere Lösung kontinuierlich weiterentwickeln."
Geschäftsmodell mit messbarem Mehrwert für Betreiber*innen
Das Kernprinzip: Mithilfe KI-basierter Computer Vision werden Ein- und Ausfahrten erfasst, was Schranken, Tickets, Parkscheiben und vor allem kostenintensives Personal vor Ort überflüssig macht. Wemolo bietet verschiedene Module für die Parkraumdigitalisierung - von der Überwachung kostenfreier Flächen bis zu volldigitalen Bezahlsystemen, die auf die jeweiligen Kund*innenanforderungen angepasst werden können. Die intelligente Plattform ermöglicht nicht nur die effiziente Bewirtschaftung von Parkraum und reibungslose Nutzer*innenerlebnisse, sondern liefert auch wertvolle Daten für optimierte Geschäftsentscheidungen.
“Wir liefern anonymisierte, aber hochgradig aussagekräftige Daten zur Flächennutzung”, erklärt CPTO und Mitgründer Bastian Pieper. “Ein Beispiel: Durch die effektive Vermeidung von Fremdparkern konnte einer unserer Lebensmittelkunden die Verfügbarkeit seiner Kundenparkplätze deutlich erhöhen. Das Ergebnis: Ein messbarer Anstieg des Filialumsatzes, der bei typischen Margen des Lebensmitteleinzelhandels eine Gewinnsteigerung im mittleren fünfstelligen Bereich pro Jahr ermöglicht.”
“Bei gewerblichen Immobilienprojekten ermöglichen unsere präzisen Nutzungsdaten eine optimierte Stellplatzdimensionierung, was für Investoren zu signifikanten Einsparungen bei Tiefgaragen-Investitionen führt und die Gesamtrendite der Immobilie verbessert”, ergänzt Pieper.
Wachstumsfinanzierung strategisch eingesetzt
Den Break-even wertet das Management als Bestätigung des Geschäftsmodells, aber auch als Signal des wachsenden Bedarfs am Markt. “Wir merken, dass immer mehr Unternehmen und Immobilieneigentümer aktiv nach einer unkomplizierten, verlässlichen Lösung suchen, um ihre Parkflächen zu digitalisieren – und zugleich relevante Daten zu erheben. Das Thema steht weiterhin am Anfang. Wir wollen Wemolo zum stärksten Anbieter auf dem Feld der smarten Parklösungen ausbauen”, sagt Iwamoto.
“Wir verfolgen bei unserer Technologieentwicklung einen hybriden Ansatz”, erklärt Pieper. “Die entscheidenden Komponenten – unsere custom-trainierte KI und die zentrale Softwareplattform – entwickeln wir komplett inhouse, während wir Spezialkomponenten wie Bezahlautomaten nach unserem Design in Deutschland fertigen lassen.”
“Wir setzen auf robuste Industrial-Grade-Hardware, auf der unsere speziell trainierte KI läuft, um jedes Fahrzeug unter allen Wetterbedingungen zuverlässig zu erfassen. Diese Kombination aus eigener Software-Expertise und gezielter Hardware-Integration ermöglicht uns viel schnellere Innovationszyklen als bei traditionellen Parksystembetreibern oder reinen Software-Anbietern”, führt Pieper fort. “Ähnlich wie Tech-Vorreiter aus dem Silicon Valley bringen wir neue Features und KI-Optimierungen in Wochen statt Quartalen zur Marktreife.”
Expansion und Herausforderungen des Wachstums
Wemolo ist bereits in fünf europäischen Ländern aktiv, darunter Deutschland, Österreich, Schweiz, Polen und Italien. Für 2025 plant das Unternehmen, seine digitalen Bezahllösungen in diesen und weiteren europäischen Märkten auszubauen. Dabei setzt das Scale-up auf ein Netzwerk aus strategischen Kooperationen mit Lebensmitteleinzelhändlern, Immobilienentwicklern und kommunalen Einrichtungen.
“Die klassischen Schrankenparksysteme sind in vielen Regionen noch Standard, aber der Markt wandelt sich rapide”, sagt Bodenmüller. “Unser digitales Konzept steigert den Verbraucherkomfort, die Wirtschaftlichkeit von Immobilien und erfüllt ESG-Anforderungen.”
Die größten Herausforderungen beim weiteren Wachstum sieht das Management vor allem in der unterschiedlichen Regulierung zur Kameraüberwachung in den europäischen Ländern sowie in der Akzeptanz schrankenloser Systeme bei traditionell orientierten Betreibern. “Mit unserer DSGVO-konformen Technologie und messbaren Kostenvorteilen durch den Wegfall wartungsintensiver Schranken und Ticketsysteme überzeugen wir den Markt”, betont Pieper.
Ambitionierte Ziele in einem wachsenden Markt
Vor dem Hintergrund der Profitabilität plant Wemolo nun den nächsten Wachstumsschritt. “Wir sind im digitalen Parksegment bereits Marktführer in Europa und wollen zum absolut stärksten Provider werden”, sagt Iwamoto. “Dass wir jetzt bereits profitabel sind, verschafft uns die nötige Unabhängigkeit, um in Technologie, Teams und Expansion zu investieren, ohne dabei von externem Kapital abhängig zu sein." Branchenexperten prognostizieren für den europäischen Markt digitaler Parksysteme ein anhaltend starkes Wachstum. Denn bislang gelten weniger als 25 Prozent des auf rund 50 Milliarden Euro geschätzten Gesamtmarktes als technologisch modernisiert – etwa durch kamerabasierte Zugangssysteme, automatisierte Bezahlprozesse oder intelligente Flächenanalysen.

