Aktuelle Events
Was gehört in eine KI-Policy?
Recht für Gründer*innen: Über den verantwortungsvollen Umgang mit KI.
Künstliche Intelligenz (KI) ist längst Teil unseres Alltags und hält in Unternehmen auch zunehmend Einzug. Ob beim Erstellen von Texten, in der Datenanalyse oder bei der Automatisierung von Routineaufgaben – KI ist ein starkes Werkzeug, das Unternehmen viele Vorteile bieten kann. Doch mit diesen Vorteilen kommen auch Verantwortung und Risiken, die eine klare und durchdachte KI-Policy erfordern.
Diese Einleitung zu einem Artikel über KI-Policies ist KI-generiert. Es ist so schön bequem und schnell gemacht: eines der gängigen LLM-Systeme online aufrufen, beispielsweise ChatGPT, und binnen Sekunden ist der Artikel fertig.
Ihr kennt das im Privaten, vor allem aber auch im Arbeitsumfeld. KI-Tools sind aus der Arbeitswelt nicht mehr wegzudenken. Die Nutzung von KI – insbesondere für berufliche Aufgaben – birgt jedoch Risiken. Manche KI neigt, falsch trainiert, zu diskriminierenden Entscheidungen, was z.B. im HR-Bereich gefährlich ist. Unbedacht erstellte Prompts können den Schutz von Geschäftsgeheimnissen aufs Spiel setzen. Die Datenschutzgrundsätze sind wie immer einzuhalten.
Generative KI schert sich, wenn wir als Nutzer*innen nicht darauf Acht geben, nicht um die Urheberrechte derer, deren Werke wir – ob bewusst oder unbewusst – verwenden oder verletzen. Zudem ist seit August 2024 die KI-Verordnung in der EU in Kraft und stellt an Unternehmen, die KI-Systeme und -Modelle entwickeln, anbieten oder betreiben, umfangreiche Anforderungen. Auch die mit KI einhergehenden Risiken sind nicht außer Acht zu lassen.
Seid ihr als Gründer*innen oder in sonst verantwortlicher Position in einem Unternehmen mit mehreren Mitarbeiter*innen tätig, müsst ihr euch Gedanken darüber machen, wie solche Risiken zu fassen und zu begrenzen sind. Tut ihr das nicht, drohen aus diversen Rechtsgrundlagen z.B. Schadensersatzforderungen, Bußgelder oder der Verlust an Assets – Dinge, die allerspätestens bei der nächsten Finanzierungsrunde negativ bewertet werden. In Bezug auf eure Belegschaft müsst ihr also Awareness für diese Themen schaffen und konkrete Vorgaben machen.
Denn eines ist klar: KI wird in eurem Unternehmen genutzt werden, ob mit oder ohne euer Wissen. Und bevor die Mitarbeiter*innen auf privaten Geräten sensible berufliche Aufgaben nicht reglementiert mittels ChatGPT & Co. lösen, beschreibt lieber beizeiten Dos and Don’ts, um sicherstellen, dass KI verantwortungsvoll, sicher und rechtskonform im Unternehmen eingesetzt wird.
Dazu dient eine die Belegschaft informierende und verpflichtende KI-Policy. Im Folgenden findest du einen Überblick darüber, welche Aspekte in eine solche Policy gehören.
1. Richtlinien für den Einsatz generativer KI am Arbeitsplatz
Generative KI-Modelle wie ChatGPT, DALL-E und andere erstellen Inhalte nach Maßgabe der Eingaben der Nutzenden. Bei diesen Prompts und bei der Verwendung der generierten Ergebnisse ist auf Folgendes zu achten:
- Schutz sensibler Daten: Die Eingabe vertraulicher Informationen in KI-Modelle stellt ein erhebliches Risiko dar, da generative KI-Systeme auf großen Datenmengen trainiert sind und Informationen potenziell unkontrolliert verarbeiten und speichern. Die KI-Policy sollte explizit verbieten, sensible oder vertrauliche Informationen in generative KI-Systeme einzugeben, insbesondere, wenn diese extern betrieben werden. Die Policy sollte beschreiben wie mit sensiblen Daten umzugehen ist und welche Daten für die Verarbeitung durch KI-Systeme ungeeignet sind.
- Einhaltung des Datenschutzes: Die KI-Policy sollte klarstellen, dass der Einsatz generativer KI-Tools den Anforderungen der Datenschutzgesetze (DSGVO, BDSG) entsprechen muss. Dazu gehören Vorgaben, wie personenbezogene Daten rechtssicher zu handhaben sind und welche dieser Daten überhaupt für den Einsatz von KI-Modellen geeignet sind. Zudem bedarf es Vorgaben zur Anonymisierung und Pseudonymisierung der Daten, daneben Transparenzvorgaben, um betroffene Personen über die Nutzung ihrer Daten zu informieren. Personenbezogene Daten in öffentlichen KI-Systemen einzusetzen, sollte möglichst untersagt werden.
- Umgang mit geistigem Eigentum: Die Nutzung generativer KI-Modelle kann zu Problemen führen, wenn die KI auf geschütztem Material trainiert wurde, von dem/der Nutzenden urheberrechtlich geschützte Werke in den Prompt einbezogen werden oder die KI Werke erstellt, die bestehende Urheber- oder sonstige Schutzrechte verletzen. Die KI-Policy sollte ein Verbot der Verwendung von Werken enthalten, an denen nicht die für die Bearbeitung erforderlichen Rechte bestehen. Und sie kann Regelungen zur Überprüfung und Genehmigung von KI-erstellten Inhalten festlegen, etwa durch eine Rechtsabteilung oder eine speziell dafür zuständige Stelle.
- Transparenz und Kennzeichnung: Die KI-Policy sollte festlegen, dass Inhalte, die mithilfe von generativer KI erstellt wurden, transparent gekennzeichnet werden. Dies trägt dazu bei, Missverständnisse zu vermeiden und sicherzustellen, dass die Herkunft von Texten und Bildern klar erkennbar ist. Diese Kennzeichnungspflicht sollte insbesondere dann gelten, wenn KI-generierte Inhalte veröffentlicht werden, aber auch im internen Gebrauch.
- Positivliste erlaubter KI-Systeme: Um die Mitarbeiter*innen mit der Anwendung dieser Vorgaben auf einzelne am Markt angebotene KI-Systeme nicht allein zu lassen, kann eine KI-Policy auch eine Auflistung der vom Unternehmen freigegebenen Systeme enthalten. Voraussetzung ist dafür natürlich, dass diese Systeme vorab entsprechend fachlich geprüft wurden. Das kann schwierig sein, weil sich Anbieter*innen meist nicht in die Karten schauen lassen.
2. Richtlinien für die Entwicklung und Implementierung von KI
Auch wenn ihr in eurem Unternehmen KI-Systeme entwickeln oder implementieren wollt, sind ethische, rechtliche und technische Anforderungen in einer KI-Policy zu adressieren.
- Fairness, Transparenz und Nichtdiskriminierung: KI-Systeme können, wenn sie auf verzerrten Datensätzen trainiert werden, Diskriminierung oder Vorurteile reproduzieren. Eine KI-Policy sollte deshalb klare ethische Richtlinien festlegen, die sicherstellen, dass die entwickelten Modelle fair, transparent und frei von Diskriminierung sind. Ein mögliches Vorgehen ist, regelmäßige Audits und Bias-Tests durchzuführen und in der Policy verpflichtend vorzusehen, um Verzerrungen frühzeitig zu erkennen und zu beheben.
- Datenschutz und Datensicherheit: Der verantwortungsvolle Umgang mit Nutzer*innendaten ist eine der wichtigsten Anforderungen in der KI-Entwicklung. Die KI-Policy sollte festlegen, dass bei der Verarbeitung personenbezogener Daten durch die KI strenge Schutzanforderungen, am besten strenge Begrenzungen, gelten. Rein automatisierte Entscheidungen sind schon laut DSGVO verboten. Es sollten nur die für die jeweilige Anwendung notwendigen Daten erhoben und verarbeitet werden, und diese Daten sollten weitestgehend anonymisiert oder pseudonymisiert werden. Regelungen für den Zugang zu diesen Daten sowie Maßnahmen zur Datensicherheit (wie Verschlüsselung und Zugriffskontrollen) sollten ebenfalls Bestandteil der Policy sein.
- Überprüfung auf Halluzinationen und Fehlinterpretationen: Generative KI-Modelle neigen dazu, Informationen zu „halluzinieren“, also falsche oder ungenaue Inhalte zu erstellen. In der KI-Policy sollte festgelegt sein, dass entwickelte KI-Modelle regelmäßig auf ihre Genauigkeit und Zuverlässigkeit überprüft werden. Dies kann durch vorgeschriebene Tests und Simulationen geschehen, bei denen die KI in verschiedenen Szenarien eingesetzt und auf ihre Fähigkeit, korrekte Ergebnisse zu liefern, geprüft wird. Es sollten auch definiert werden, wie Fehler erkannt und behoben werden können.
- Erklärbarkeit und Nutzer*infreundlichkeit: Komplexe KI-Modelle sind oft schwer verständlich und wirken wie eine Black Box, deren Entscheidungen für Außenstehende kaum nachvollziehbar sind. Die KI-Policy sollte daher sicherstellen, dass die KI so gestaltet ist, dass ihre Funktionsweise für Nutzer*innen transparent und nachvollziehbar ist. Dies ist insbesondere dort wichtig, wo KI-Entscheidungen schwerwiegende Auswirkungen haben können. Ihr solltet sicherstellen, dass für Nutzer*innen eine verständliche Erläuterung darüber bereitgestellt wird, wie und warum die KI zu einem bestimmten Ergebnis gelangt ist. Das ist Voraussetzung für Kontrolle und rechtskonformen Betrieb der KI.
- Gesetzeskonformität gemäß KI-Verordnung: Nicht zuletzt hat die Europäische Union die KI-Verordnung in Kraft gesetzt, die strenge Anforderungen an die Entwicklung und Nutzung von KI stellt. Die KI-Verordnung dient der Produktsicherheit und verlangt zunächst eine Risikoeinschätzung für die KI-Systeme. Die Maßgaben für eine solche Einschätzung sollten in der Policy angerissen und No-Gos für die Entwicklung von Funktionalitäten, die zu den laut KI-Verordnung verbotenen KI-Anwendungen gehören, ausgesprochen werden. Für sogenannte Hochrisiko-KI-Systeme gelten besondere Anforderungen, die bei einer Entwicklung mitgedacht werden müssen, wofür eine KI-Policy zumindest sensibilisieren sollte. Die im Einzelfall geforderte Überprüfung und Einstufung des jeweiligen Systems oder Modells kann eine Policy nicht leisten. Die initialen und regelmäßigen Überprüfungen sowie Risikobewertungen sollte sie aber fordern.
- Regelmäßige Überwachung und Wartung der KI-Modelle: KI-Modelle entwickeln sich weiter und benötigen regelmäßige Überwachung und Wartung, um die Leistung zu optimieren und mögliche Fehler zu minimieren. Die KI-Policy sollte eine solche sich wiederholende Maintenance festlegen, etwa die schon erwähnten regelmäßigen Aktualisierungen, Fehlerbehebungen und Performance-Überprüfungen, damit die KI-Systeme immer den aktuellen Standards und Anforderungen entsprechen.
3. Übergreifende Ziele und Vorgaben einer KI-Policy
Eine KI-Policy sollte nicht nur detaillierte Vorgaben zur Nutzung und Entwicklung von KI enthalten, sondern auch allgemeine Leitlinien und Prinzipien für den Einsatz von KI im Unternehmen, um ein Bewusstsein für die Potenziale und Risiken der Technologie zu schaffen.
- Regelmäßige Überprüfung und Anpassung: Da sich KI-Technologien und gesetzliche Anforderungen stetig weiterentwickeln, sollte auch die KI-Policy regelmäßig überprüft und aktualisiert werden. Dies hilft sicherzustellen, dass das Unternehmen stets auf dem neuesten Stand ist und seine KI-Systeme konform mit den aktuellen gesetzlichen, ethischen und technischen Standards sind. Es ist empfehlenswert, regelmäßige Audits durchzuführen und die Policy an neue Entwicklungen in der KI-Forschung und Gesetzgebung sowie an die Marktanforderungen anzupassen.
- Unternehmenskultur in Bezug auf KI: Eine KI-Policy sollte dazu dienen, den transparenten und offenen Umgang mit KI in allen Unternehmensbereichen und damit die Akzeptanz für KI-Systeme sowohl innerhalb des Unternehmens als auch bei Kund*innen und Partner*innen zu fördern. Dazu gehört auch, dass das Unternehmen offenlegt, in welchen Bereichen KI eingesetzt wird und welche Entscheidungen die Technologie beeinflusst. Letztendlich ist die KI-Policy ein Instrument zur Förderung einer verantwortungsvollen und ethischen Unternehmenskultur in Bezug auf KI. Das schützt letztlich auch die Integrität und die Werte des Unternehmens.
- Schulungen und Sensibilisierungsmaßnahmen: Um einen solchen kompetenten und verantwortungsvollen Umgang mit KI zu erreichen, sind regelmäßige Schulungen und Sensibilisierungsmaßnahmen für die Mitarbeiter*innen zu den hier genannten Aspekten vorzusehen.
Fazit
Dieser Artikel kann nur einen groben Überblick und Rahmen geben. Die konkreten Inhalte einer auf eure Belange und Nutzungsformen passenden Policy müsst ihr in Anschauung der Spezifika der eingesetzten oder zu entwickelnden KI-Systeme erarbeiten. Das kann auch schlecht an KI delegiert werden: Der Rest des eingangs erwähnten KI-generierten Artikels war nicht wirklich brauchbar, ebenso die testweise mit KI erstellten Policies. Dafür braucht es professionelle Unterstützung.
Der Autor Dr. Daniel Michel, LL.M. ist seit 2004 als Rechtsanwalt im Bereich IT/IP/Technologie tätig. Nach Stationen in spezialisierten und Großkanzleien betreibt er seit 2018 seine eigene Rechtsberatung im Raum München, www.datalawcounsel.com
GreenTech – der Boom geht zu Ende
Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.
Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.
Der Boom geht zu Ende
„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze. „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“
Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich. Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“
Herausforderungen im deutschen GreenTech-Sektor
Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte. Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“
Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit
„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“
Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“
Politik und Wirtschaft in gemeinsamer Verantwortung
Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“
Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.
Die Top 10 Grafikdesigntrends 2026
Grafikdesign setzt Impulse, um dein Branding aufzufrischen, deine Marke gekonnt zu inszenieren oder deine Zielgruppe persönlich und emotional anzusprechen. Daher gut zu wissen: Diese zehn Grafikdesigntrends werden von den Profis aktuell favorisiert.
2026 wird das Jahr, in dem Grafikdesign Menschlichkeit betont. Während KI im Alltag eine immer größere Rolle spielt, wächst die Sehnsucht nach Echtheit – nach Entwürfen, die berühren. Zu diesem Schluss kommt das Expert*innen-Team von VistaPrint auf Basis der umfassenden Beobachtungen seiner internationalen Freelancer-Community auf 99designs by Vista.
Die zentrale Erkenntnis: Grafikdesign wird wieder deutlich persönlicher. Es zeichnet sich ab, dass sich die Trends weg vom Glatten, hin zum Echten entwickeln. Marken wollen bei ihren Zielgruppen Gefühle wecken und setzen deshalb auf Geschichten statt Marketingbotschaften. So wird Design zur Bühne für Individualität und damit zum wirksamsten Werkzeug, um echte Verbindungen aufzubauen.
„Kleine Unternehmen haben den entscheidenden Vorteil, mutig, eigenwillig und authentisch auftreten zu können – großen Marken fällt das oft schwer,“ weiß Patrick Llewellyn, VP of Digital and Design Services bei VistaPrint. „In unserer laut und unpersönlich gewordenen Welt wirken unperfekte Designs ehrlich. Genau das macht sie so kraftvoll.“
Die Designtrends 2026 holen das Handgemachte ins Digitale, erzählen von kultureller Identität, feiern Unvollkommenheit und lassen Gefühle sichtbar werden. Nicht der Algorithmus, sondern der Mensch steht im Mittelpunkt.
Die Designtrends 2026 im Überblick:
Elemental Folk
Tradition trifft moderne Gestaltung: Inspiriert von regionaler Handwerkskunst und kulturellem Erbe, entstehen warme, ausdrucksstarke Designs mit floralen Mustern, ornamentalen Details und kräftigen Farben. Die Gestaltung wirkt vertraut und zeitgemäß zugleich. Elemental Folk ist ein visueller Rückgriff auf das Ursprüngliche, der die Identität und Herkunft feiert.
Hyper-Individualism
Dieser Trend bringt frischen Wind ins Design. Er setzt auf surreale Bildwelten, spielt mit verzerrten Formen und bricht ganz bewusst mit Konventionen. Die Darstellungen wirken mal verspielt, mal provokant, aber immer individuell. Während viele ihre Gestaltungsprozesse komplett von der künstlichen Intelligenz erledigen lassen, begeistert dieser Stil mit der kreativen Handschrift der Menschen.
Tactile Craft
Stickerei, Stoffstrukturen und handgemachte Details finden ihren Weg zurück ins digitale Design. Was dabei entsteht, fühlt sich fast schon greifbar an: Die visuellen Oberflächen erzeugen eine besondere Tiefe, die den BetrachterInnen Wärme spendet. Zwischen DIY-Charme und nostalgischer Anmutung generiert dieser Trend – als Gegenentwurf zur glatten, oft distanzierten Ästhetik der digitalen Welt – eine emotionale Nähe.
Distorted Cut
Wenn Gestaltung zum Widerstand wird, entstehen visuelle Statements mit Ecken und Kanten. Klassische Collage-Techniken werden neu interpretiert, indem Bilder zerschnitten, Schichten überlagert und Formen fragmentiert werden. Das Ergebnis wirkt roh, rebellisch und voller Energie. Fest steht: Dieser Designstil will nicht gefallen – es geht darum, Haltung zu zeigen.
Candid Camera Roll
Kreative bringen mit diesem Trend das Echte zurück ins Visuelle. Unperfekte Schnappschüsse, Filmkorn, Blitzlicht und spontane Momente wirken persönlich und nahbar. Im Zusammenspiel mit reduzierter Typografie entstehen Designs, die mit ihrer Ehrlichkeit wirken und berühren.
Hyper-Bloom
Manchmal braucht es einen visuellen Rückzugsort – einen Ort zum Durchatmen. Sanfte Verläufe, zarte Blumenmotive und pudrige Pastelltöne entführen in eine Welt zwischen Traum und Realität. Der Stil wirkt wie ein Gegenpol zum hektischen Alltag und öffnet Raum für Leichtigkeit, Optimismus und ein bisschen Tagträumerei.
Digit-Cute
Die Ästhetik bewegt sich zwischen Nostalgie und digitaler Verspieltheit und sorgt vom ersten Moment an für richtig gute Laune. Klare Strukturen treffen auf bunte Pixelgrafiken, niedliche Figuren und kräftige Farben. Der Look versprüht den Charme der frühen Computerspiele und Popkultur. Gerade weil er so verspielt wirkt, ist er gestalterisch besonders raffiniert.
Micro-Industrial
Was früher rein funktional war, wird jetzt zum Gestaltungskonzept. Inspiriert von Verpackungen, technischen Etiketten und Informationsgrafiken bildet sich ein Designstil, der Klarheit feiert. Der gezielte Einsatz von Elementen wie Barcodes, QR-Codes und Rasterstrukturen verleiht den Entwürfen eine rohe, sachliche und zugleich moderne Ästhetik.
Neon Noir
Dunkel, intensiv und voller Spannung – der Stil erinnert an Szenen aus einem Neo-Noir-Film. Knallige Farben, wie elektrisches Rot, treffen auf tiefes Schwarz, kombiniert mit Bewegungsunschärfen und rauen Texturen. Der urbane, energiegeladene Look fällt sofort ins Auge und bleibt lange im Kopf.
Frutiger Aero Revival
Ein Hauch von Zukunft, so wie man sie sich früher vorgestellt hat: Glänzende Oberflächen, sanfte Farbverläufe und fließende Formen knüpfen an die Tech-Ästhetik der frühen 2000er an. Elemente wie Wasser, Himmel oder digitale Pflanzenwelten verleihen den Designs eine fast träumerische Leichtigkeit. Der Stil ist eine liebevolle Rückschau in eine Zeit, in der Technologie noch als Versprechen galt.
Fazit
Design darf wieder fühlen, Haltung zeigen und Ecken haben. Um als Marke aufzufallen, braucht man nicht mehr das glatteste Logo oder das perfekteste Bild, sondern Persönlichkeit, Mut und eine klare Botschaft. 2026 wird das Jahr, in dem Echtheit zählt. Das Beste daran: Es wird kreativ, lebendig und überraschend schön.
Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche
Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.
Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.
KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.
Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.
Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.
Kontrolle und Zugang: Die Regeln für Sprachmodelle
Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.
Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.
Neue Protokolle für neue Crawler
Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.
Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.
Strukturierte Daten als universelle KI-Sprache
Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.
Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.
Die Bedeutung für die Generierung
Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.
- Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
- Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.
Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.
Ladezeit und Interaktivität als Vertrauenssignal
Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.
Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:
- LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
- FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
- CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.
Mobile Performance ist der Schlüssel
Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.
Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.
Redundanz vermeiden: kanonische Klarheit
Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.
Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.
Schlussworte
Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.
Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:
1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.
2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.
3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.
4. Die Vermeidung von Duplikaten durch kanonische Klarheit.
Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.
Report: Quantencomputing
Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.
Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.
Herausforderungen
Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.
Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.
Trends
In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.
Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.
Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintrittsbarrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.
Die Rolle von Start-ups
Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.
Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.
Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.
Deutsche QC-Start-ups mischen ganz vorne mit
Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.
Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.
Indirekter Einkauf: Versteckter Kostenfresser oder unentdeckter Goldschatz?
Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.
In vielen Unternehmen wird der indirekte Einkauf häufig unterschätzt – dabei liegen hier oft erhebliche Einsparpotenziale verborgen. Durch die wachsende Digitalisierung und die zunehmende Verfügbarkeit von B2B eCommerce-Plattformen bestellen Mitarbeitende Waren und Dienstleistungen immer häufiger außerhalb klassischer Einkaufsprozesse. Diese Entwicklung bringt einerseits Flexibilität und Effizienz, stellt Unternehmen aber auch vor neue Herausforderungen: Wie lassen sich Ausgaben kontrollieren und Transparenz über die gesamte Einkaufskette sicherstellen?
Die beste Einkaufssoftware für den Mittelstand adressiert genau diese Herausforderungen. Hivebuy hat sich als moderne, benutzerfreundliche Lösung etabliert, die den indirekten Einkaufsprozess von der Bestellung bis zur Rechnungsprüfung digitalisiert und automatisiert. Die Software integriert sich nahtlos in bestehende ERP-, Buchhaltungs- und Kommunikationstools wie SAP, Microsoft Dynamics, Teams oder Slack – und das ohne aufwändige technische Implementierung.
Gegründet von erfahrenen Einkaufs- und Finanzexpert*innen aus Frustration über bisherige Lösungen, verfolgt Hivebuy die Mission, versteckte Kosten sichtbar zu machen, Budgets in Echtzeit zu kontrollieren und Einkaufsprozesse effizienter zu gestalten. Mit höchsten Sicherheitsstandards, inklusive ISO/IEC 27001-Zertifizierung und DSGVO-konformer Datenhaltung in Deutschland, schafft Hivebuy Transparenz und Vertrauen entlang der gesamten Einkaufskette.
Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.
StartingUp: Frau Fischer, viele Unternehmen sehen im indirekten Einkauf eher einen Kostenfaktor, der schwer zu kontrollieren ist. Was macht den indirekten Einkauf aus Ihrer Sicht zu einem versteckten Kostenfresser?
Bettina Fischer: Die große Herausforderung im indirekten Einkauf liegt darin, dass die einkaufenden Personen über das gesamte Unternehmen verteilt sind – anders als im direkten Einkauf, wo spezialisierte Einkaufsabteilungen tätig sind. Das bedeutet: Jede*r Mitarbeitende, der oder die einmal etwas bestellt, wird zum Einkäufer oder zur Einkäuferin – oft ohne die notwendige Erfahrung in Einkaufsprozessen.
Dadurch entstehen typische Muster: Es wird bei bekannten Lieferanten bestellt – oft aus dem privaten Umfeld, wie etwa Amazon Business – ohne Preisvergleiche, ohne Berücksichtigung von Lieferzeiten oder bereits verhandelten Konditionen. Das führt schnell zu ineffizienten und teuren Entscheidungen.
Hinzu kommt, dass im indirekten Einkauf eine hohe Produktvielfalt auf eine extrem heterogene Lieferantenlandschaft trifft. Das erschwert es, durch Bündelung bessere Konditionen zu erzielen. Es fehlt die klare, strategische Beziehung zu bestimmten Lieferanten – und genau dort entstehen die versteckten Kosten.
StartingUp: Wie hilft Hivebuy Mittelständlern konkret dabei, diese versteckten Kosten aufzudecken und zu reduzieren?
Bettina Fischer: Hivebuy verfolgt einen ganzheitlichen Ansatz, um die Herausforderungen des indirekten Einkaufs zu lösen. Zum einen ermöglichen wir es Mitarbeitenden, direkt über integrierte Lieferanten zu bestellen. Das bedeutet: Die Bestellungen erfolgen zentral über Hivebuy – ohne Umwege über externe Plattformen oder individuelle Beschaffungswege. Die Bestellübermittlung ist automatisiert und erfolgt effizient über unser System.
Darüber hinaus bietet Hivebuy einen integrierten Preisvergleich für B2B-Webshops. So wird sichergestellt, dass stets der beste Preis und die optimalen Lieferzeiten berücksichtigt werden – ein entscheidender Hebel zur Kostensenkung.
Ein weiterer zentraler Punkt ist die Budgetkontrolle: Sobald eine Bestellanforderung erstellt wird, sehen Budgetverantwortliche sofort die Auswirkungen auf ihr Budget – in Echtzeit. Dadurch lassen sich Entscheidungen schnell, fundiert und transparent treffen.
Auch die Freigabeprozesse sind flexibel und konfigurierbar: Mitarbeitenden wird Freiheit für alltägliche Bestellungen gegeben, während bei kritischen oder kostenintensiven Vorgängen automatische Eskalationen und Genehmigungen greifen.
Nicht zuletzt ermöglicht Hivebuy dem Einkauf, sein Wissen an die Organisation weiterzugeben. Vorverhandelte Verträge, Katalogartikel oder bevorzugte Lieferanten sind direkt im System sichtbar – wie ein digitaler Einkaufsberater im Hintergrund. So treffen selbst unerfahrene Nutzer bessere Entscheidungen – ganz im Sinne von Kostenkontrolle und Prozesssicherheit.
StartingUp: Ihre Software ist bekannt für ihre Nutzerfreundlichkeit. Wie schaffen Sie es, auch nicht-einkaufserfahrene Mitarbeitende einzubinden?
Bettina Fischer: Benutzerfreundlichkeit steht bei Hivebuy an oberster Stelle. Wann immer wir eine neue Funktion entwickeln, testen wir diese gemeinsam mit unseren Nutzerinnen und Nutzern – direkt aus der Praxis. Unser Ziel ist es, dass Hivebuy genauso intuitiv bedienbar ist wie eine Online-Überweisung: Jeder soll auf Anhieb verstehen, was zu tun ist.
Mit Funktionen wie unserem B2B-Preisvergleich und dem sogenannten Guided Buying führen wir Mitarbeitende gezielt durch den Einkaufsprozess – Schritt für Schritt, ganz ohne Schulungsaufwand. So wird selbst komplexes Einkaufswissen einfach zugänglich gemacht.
Für Freigabeverantwortliche haben wir zusätzlich eine besonders komfortable Lösung geschaffen: Freigaben können direkt über Messenger-Apps wie Microsoft Teams erteilt werden – ohne sich ins System einloggen zu müssen. Die relevanten Informationen kommen automatisch dorthin, wo man ohnehin schon arbeitet – aufs Handy oder den Desktop. Das senkt die Einstiegshürden enorm und sorgt für eine breite Akzeptanz im gesamten Unternehmen.
StartingUp: Welche Rolle spielen Transparenz und Echtzeit-Reporting in der Budgetkontrolle?
Bettina Fischer: Wir sind überzeugt: Budgetkontrolle funktioniert nur in Echtzeit. Es bringt wenig, wenn Budgetübersichten nur monatlich, quartalsweise oder gar halbjährlich zur Verfügung stehen. Entscheidungen im Einkauf werden täglich getroffen – also muss auch die Budgettransparenz jederzeit aktuell sein.
Deshalb haben wir bei der Entwicklung von Hivebuy besonderen Fokus auf eine unmittelbare Budgeteinsicht gelegt. Sobald eine Bestellung angefragt wird, sieht der oder die Budgetverantwortliche sofort, wie sich diese auf das verfügbare Budget auswirkt. Diese Echtzeit-Transparenz ist ein zentrales Element unserer Software.
Gleichzeitig möchten wir Mitarbeitende befähigen, innerhalb ihrer Befugnisse selbstständig Entscheidungen zu treffen. Nicht jede Anfrage muss durch mehrere Instanzen laufen. Vielmehr setzen wir auf smarte, automatisierte Prozesse – kombiniert mit dem Vertrauen in die Souveränität der Nutzer. Das spart nicht nur Zeit, sondern steigert auch die Effizienz und Zufriedenheit im Unternehmen.
StartingUp: Die Einführung neuer Software bedeutet oft hohen Aufwand. Wie gestaltet sich die Implementierung von Hivebuy?
Bettina Fischer: Ich habe selbst über viele Jahre ERP- und Einkaufssoftwareprojekte geleitet – und ehrlich gesagt: Es war jedes Mal ein enormer Aufwand. Genau diese Erfahrungen haben mich dazu motiviert, Hivebuy so zu entwickeln, dass Implementierung eben nicht zur Belastung wird.
Unsere Lösung ist bewusst so aufgebaut, dass sie schnell, unkompliziert und ohne großen IT-Aufwand eingeführt werden kann. Neue Unternehmen können innerhalb kürzester Zeit starten – oft sogar innerhalb eines Tages mit einem eigenen Testsystem.
Die Einführung begleiten wir durch leicht verständliche Videotutorials und Onboarding-Materialien. Darüber hinaus gibt es persönliche Sessions, in denen die Nutzer befähigt werden, das System selbstständig für ihr Unternehmen zu konfigurieren. Schnittstellen zu ERP-Systemen wie SAP, Microsoft Dynamics oder DATEV richten wir in der Regel innerhalb weniger Stunden bis Tage ein.
Wenn beide Seiten fokussiert an das Projekt herangehen, können wir bei Unternehmen mit mehreren tausend Mitarbeitenden innerhalb von acht Wochen vollständig live gehen – inklusive Integration, Schulung und Rollout.
StartingUp: Wie unterstützt Hivebuy IT-Teams und technische Entscheider bei der Integration?
Bettina Fischer: Unsere größte Stärke in der Zusammenarbeit mit IT-Teams ist unsere Schnelligkeit. Bereits im ersten Kick-Off mit der IT tauschen wir alle relevanten technischen Dokumentationen aus, klären die Rahmenbedingungen und ermöglichen in kürzester Zeit die Integration in ein Testsystem. Wir verzichten bewusst auf langwierige Business-Blueprint-Phasen und setzen stattdessen auf eine praxisnahe, direkte Umsetzung.
Hivebuy verfolgt eine klare Integration-First-Strategie. Das bedeutet: Unsere Lösung ist von Grund auf so konzipiert, dass sie sich schnell und flexibel in bestehende ERP-Systeme und IT-Landschaften integrieren lässt. Für alle gängigen Systeme – ob SAP, Microsoft Dynamics, DATEV oder NetSuite – stellen wir vollständige Schnittstellen-Dokumentationen zur Verfügung.
Mein Mitgründer Stefan Kiehne bringt aus seiner Zeit bei PwC tiefes technisches Know-how mit und hat zahlreiche ERP-Implementierungen verantwortet. Dieses Wissen fließt direkt in unsere Projekte ein. Inzwischen haben wir Hivebuy in so viele verschiedene Systeme integriert, dass kaum noch Überraschungen aufkommen. Für IT-Verantwortliche bedeutet das: minimale Unsicherheiten, schnelle Umsetzung und maximale Kompatibilität.
StartingUp: Wie sieht die Zukunft des indirekten Einkaufs aus? Welche Trends beobachten Sie?
Bettina Fischer: Ich sehe im indirekten Einkauf ganz klar einen Wandel hin zu intelligenter Automatisierung und echter Transparenz. Schon heute beobachten wir den Trend in Richtung „Agent AI“ – also digitale Einkaufsassistenten, die Nutzer durch Prozesse begleiten und Entscheidungen mit datenbasierten Empfehlungen unterstützen. Das wird sich in den nächsten Jahren deutlich verstärken.
Was mich persönlich schon lange wundert: Im B2C-Bereich haben wir mit Plattformen wie Idealo längst Preis- und Konditionsvergleiche. Im B2B gibt es das kaum. Deshalb war es uns wichtig, mit Hivebuy eine Lösung zu schaffen, die genau das möglich macht – inklusive der hinterlegten, unternehmensspezifischen Konditionen. Das ist ein echter Gamechanger.
In Zukunft wird der indirekte Einkauf zunehmend automatisiert ablaufen – von der Bedarfserkennung bis hin zur Bestellung. Vergleichbar mit einem intelligenten Kühlschrank, der automatisch Milch nachbestellt, wird auch im Unternehmen vieles automatisch geschehen: Bedarfe erkennen, Angebote vergleichen, Bestellungen auslösen – ganz ohne manuelles Zutun.
Strategische Beschaffung wird dabei zur Grundlage. Das Ziel ist nicht, jede Bestellung individuell zu behandeln, sondern Prozesse zu standardisieren, auf Unternehmensziele auszurichten und individuelle Bedarfe intelligent einzubinden.
Und auch die Rückseite des Einkaufs wird sich stark verändern: Rechnungsprüfung, Buchung und Zahlungsfreigabe werden zunehmend automatisiert ablaufen. In einer idealen Zukunft brauchen wir keine manuelle Rechnungserfassung mehr – weil alles systemgestützt, regelbasiert und transparent funktioniert.
StartingUp: Vielen Dank für das Gespräch, Frau Fischer. Ihre Einblicke verdeutlichen, wie entscheidend es für Unternehmen ist, den indirekten Einkauf transparent und effizient zu gestalten. Mit Lösungen wie Hivebuy können Mittelständler versteckte Kosten sichtbar machen und ihre Beschaffungsprozesse nachhaltig optimieren. Wir wünschen Ihnen weiterhin viel Erfolg bei Ihrer Mission, Einkaufsteams bestmöglich zu unterstützen.
EU AI Act: Status quo
Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.
Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.
Überblick: Der AI Act
Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten HochrisikoSysteme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.
Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.
Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.
Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.
Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.
Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produktregulierung und Marktüberwachung.
Was fehlt? Guidance und Governance
Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.
Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.
Und wo steht Deutschland?
Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.
Reallabore
Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.
Reaktionen
Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.
Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschiedliche Informationen und Compliance-Nachweise verfügbar sind.
Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.
Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.
Fazit
Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.
Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Herausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.
Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München
Humanoide Roboter: Vision und Realität
Der Weltroboterverband IFR veröffentlicht sein Positionspapier zu Trends, Chancen und möglichen Grenzen rund um das Thema humanoide Roboter.
Menschenähnliche Roboter gelten als die nächste große Innovation in der Robotik: Der weltweit größte Markt für Industrieroboter, China, hat bereits konkrete Pläne für die Massenproduktion von Humanoiden festgelegt. Gleichzeitig kündigten Technologieunternehmen in den USA und Europa große Investitionsvorhaben in diesem Bereich an. Die Vision ist, Allzweckroboter zu entwickeln, die auf menschlicher Mechanik basieren. Einblicke in Trends, Chancen und mögliche Grenzen humanoider Roboter bietet das neue Positionspapier der International Federation of Robotics.
„Futuristisch anmutende humanoide Roboter, die in unserem Zuhause, in Unternehmen und in der Öffentlichkeit arbeiten, faszinieren die Menschen“, sagt Takayuki Ito, Präsident der International Federation of Robotics. „Da die Welt in der wir leben auf den menschlichen Körper zugeschnitten ist, liegt die Idee eines schnellen, universellen Helfers in der Produktion und bei Dienstleistungen auf der Hand. Ob und wann es aber zu einer massenhaften Nutzung von Humanoiden kommen wird, bleibt ungewiss. Nicht zu erwarten ist jedenfalls, dass Humanoide in Zukunft die derzeit auf dem Markt befindlichen Robotertypen ersetzen. Stattdessen werden sie bestehende Technologien ergänzen und erweitern.“
Einsatz von Humanoiden in den Regionen
In den Vereinigten Staaten arbeiten Tech-Unternehmen wie NVIDIA, Amazon und Tesla intensiv an KI- und Robotertechnologien. Neben der Finanzierung durch das Militär wird diese Entwicklung auch durch zahlreiche private Investitionen unterstützt. Das führt zu einer bedeutenden Start-up-Szene, die sich auf humanoide Roboter spezialisiert. Besonders groß ist das Interesse an Humanoiden in Branchen wie der Logistik und in der Fertigung. Dabei werden humanoide Roboter weniger als soziale Begleiter gesehen, sondern eher als Werkzeuge, die dabei helfen, Produktivität und Effizienz zu steigern. So liegt der Schwerpunkt verstärkt auf praktischen Anwendungen und weniger auf der Integration von Robotern in das tägliche soziale Leben.
In China nehmen die Humanoiden eine zentrale Stellung in der nationalen Robotik-Strategie ein. Die Regierung möchte in diesem Technologiebereich Kompetenz und globale Wettbewerbsfähigkeit unter Beweis stellen. Der Einsatzschwerpunkt liegt dabei im Dienstleistungssektor, beispielsweise für die Kundenbetreuung. Die Automatisierung von Produktionslinien in der Fertigung und der Einsatz von Humanoiden, um weniger von menschlichen Arbeitskräften abhängig zu sein, scheint nur auf zweiter Ebene wichtig zu sein. Kernelement der chinesischen Strategie ist der Aufbau einer skalierbaren Lieferkette für Schlüsselkomponenten.
Japan ist ein Pionier in der Entwicklung humanoider Roboter. Als frühes Beispiel wurde Hondas Asimo bereits im Oktober 2000 vorgestellt. Roboter werden in Japan eher als Gefährten, denn als bloße Werkzeuge gesehen. Humanoide Roboter wie Pepper und Palro sind demzufolge in erster Linie als Sozialroboter konzipiert und kommen in Bildungseinrichtungen, Geschäften und Altenpflegeeinrichtungen zum Einsatz. Diese Ausrichtung spiegelt die Nachfrage einer alternden Gesellschaft wider, mit der Japan konfrontiert ist. Ein wichtiger Schwerpunkt der Projekte liegt auf Robotern, die harmonisch mit Menschen zusammenleben können und als Teil der Gesellschaft akzeptiert sind. Führende Unternehmen wie Kawasaki entwickeln humanoide Roboter als eine Forschungsplattform.
In Europa wird auf die ethischen Implikationen von Robotik und KI besonderes viel Wert gelegt. Im Fokus stehen kollaborative Roboter, die im industriellen Umfeld mit Menschen zusammenarbeiten. Kernthemen sind die Verbesserung der Sicherheit und Effizienz und die Nachahmung menschlicher Fähigkeiten. Die Arbeitskraft von Menschen zu kompensieren, steht dagegen nicht im Fokus. Der Schwerpunkt liegt vielmehr auf einem menschenzentrierten Design und den sozialen und gesellschaftlichen Auswirkungen von Robotern. Die europäischen Unternehmen stehen dem Einsatz von Humanoiden generell eher zurückhaltend gegenüber, wenn es um die kurz- bis mittelfristigen Automatisierungsaufgaben im Fertigungs- und Dienstleistungssektor geht.
+++ Ein bahnbrechendes Robotik Start-up aus Deutschland ist NEURA-Robotics: Hier geht’s zu unserer Gründerstory von NEURA Robotics +++
Ausblick
Dank ihrer menschenähnlichen Geschicklichkeit und Anpassungsfähigkeit sind die Humanoiden prädestiniert, komplexe Aufgaben zu automatisieren, mit denen heutige Roboter durch herkömmliche Programmiermethoden Schwierigkeiten haben. Einen massenhaften Einsatz als universelle Haushaltshelfer dürfte es jedoch kurz- bis mittelfristig nicht geben.
Das POSITION PAPER Humanoid Robots - Vision and Reality von IFR gibt's hier zum freien Download
Warum KI bei Förderanträgen versagt
Fünf Gründe, warum Unternehmen auf menschliche Intelligenz setzen sollten.
Ob steuerliche Forschungszulage, Investitionsförderung oder EU-Programme. Künstliche Intelligenz (KI) wie ChatGPT liefert in Sekundenschnelle eine Vielzahl möglicher Förderprogramme. Doch zwischen der reinen Information und der tatsächlichen Erschließung von Fördermitteln liegt ein erheblicher Unterschied. Hier gilt es, Unternehmen zu sensibilisieren.
Fördermittel sind heute ein strategischer Bestandteil moderner Unternehmensfinanzierung. Es reicht daher nicht, die Programme zu kennen. Entscheidend ist, sie rechtssicher, vollständig und förderlogisch aufeinander abgestimmt umzusetzen, um die vollen Förderpotenziale zu heben. Genau hier beginnt die Arbeit von Fördermittelexpert*innen.
Fünf Gründe, warum KI-Tools nicht als Fördermittelberater funktionieren
1. KI erkennt die wahren Förderpotenziale nicht
ChatGPT kann erklären, was ein Förderprogramm leistet. Doch welche Kosten eines konkreten Vorhabens tatsächlich und wie hoch förderfähig sind, lässt sich so nicht beurteilen. Gerade bei komplexen Programmen wie der steuerlichen Forschungszulage sind Erfahrung, Struktur und rechtssichere Abgrenzung entscheidend. Eine gute Fördermittelberatung prüft jedes Vorhaben systematisch: von der Förderfähigkeit nach dem Forschungszulagengesetz (FZulG), AGVO oder De-minimis-Verordnung bis hin zur klaren Trennung förderfähiger und nicht förderfähiger Aufwände.
2. KI kann keine Förderstrategien entwickeln
Eine Liste von Förderprogrammen ersetzt keine Strategie. KI kann nur Optionen nennen, aber keine Strategien zur Umsetzung im Unternehmen entwickeln. Eine gute Fördermittelberatung integriert die Forschungszulage sinnvoll in laufende Projekte und strukturiert Innovations- sowie Investitionsprozesse auf Bundes-, Landes- und EU-Ebene. So entstehen nicht nur Optionen, sondern belastbare, wirtschaftlich wirksame Lösungen.
3. KI kann nicht mit Menschen kommunizieren
Ein Antrag ist mehr als ein Formular. Er muss Anforderungen erfüllen und überzeugen. KI liefert Textbausteine, aber führt keine Gespräche und reagiert nicht auf Rückfragen mit der notwendigen Erfahrung in der Verwaltungspraxis der verschiedenen Förderprogramme. Eine gute Fördermittelberatung übernimmt die gesamte Kommunikation mit Förderstellen, koordiniert mit Bescheinigungsstellen und entwickelt formal korrekte und überzeugende Argumentationen.
4. KI endet beim Prompt – Fördermittelberatung bei der erfolgreichen Projektprüfung
Nach dem Antrag geht die Arbeit oft erst richtig los. Rückfragen, Prüfungen, Nachweise. KI kann Unternehmen dabei nicht unterstützen und keine Verantwortung übernehmen. Eine gute Fördermittelberatung hingegen begleitet die Kund*innen durch den gesamten Förderzyklus mit sauberer Dokumentation, revisionssicherer Aufbereitung und Unterstützung bei Audits und Außenprüfungen.
5. KI zeigt nur den Dschungel – Förderexperten finden den Schatz
Datenbanken geben einen Überblick, aber keine Richtung. Eine gute Fördermittelberatung bewertet alle denkbar möglichen Förderprogramme im konkreten Unternehmenskontext und entwickelt daraus konkrete Maßnahmen, um das Maximum an Fördermöglichkeiten für die Kund*innen rauszuholen. Eine gute Fördermittelberatung schafft so echte wirtschaftliche Vorteile statt der bloßen Auflistung von Fördermöglichkeiten.
Der Autor Efe Duran Sarikaya ist CEO der Fördermittelberatung EPSA Deutschland.
Food-Innovation-Report
Wie Food-Start-up-Gründer*innen im herausfordernden Lebensmittelmarkt erfolgreich durchstarten und worauf Investor*innen besonders achten.
Food-Start-ups haben in den vergangenen Jahren einen bemerkenswerten Aufschwung erlebt. Der zunehmende Wunsch nach nachhaltiger, gesunder und funktionaler Ernährung, das wachsende Bewusstsein für Klima- und Umweltschutz sowie der Trend zur Individualisierung der Ernährung haben eine neue Gründungswelle ausgelöst. Dennoch: Der Markteintritt im deutschen Lebensmittelmarkt zählt zu den anspruchsvollsten Herausforderungen, denen sich Gründer*innen stellen können. Wer als Start-up nicht durch außergewöhnliche Innovation oder gezielte Nischenstrategie punktet, hat kaum eine Chance, hier gelistet zu werden.
Ohne klare Zielgruppenfokussierung, glaubwürdiges Produktversprechen und professionelle Umsetzung funktionieren auch gute Ideen nicht – wie es u.a. die Frosta-Tochter elbdeli (trotz starker Marke keine Resonanz) und Bonaverde (Kaffeemaschine mit Röstfunktion, die trotz Kickstarter-Erfolg) scheiterte zeigen.
Da dieser Markt so groß ist, ist er auch stark reguliert, hochkonkurrenzfähig und von mächtigen Einzelhandelsstrukturen dominiert. Zu den größten Hürden zählen die komplexe Regulatorik, Logistik und Produktion, Finanzierung sowie die Konsument*innenakzeptanz.
Laut dem Deutschen Startup Monitor nennen 43 Prozent aller Start-ups die Finanzierung als größte Hürde. Kapitalbedarf entsteht früh – für Verpackungen, Lebensmittelsicherheit, Produktion, Mindestabnahmemengen und Vertrieb.
Ein typisches Seed-Investment liegt zwischen 250.000 und 1,5 Millionen Euro. In späteren Phasen steigen institutionelle VCs mit Ticketgrößen von bis zu fünf Millionen Euro ein. Erfolgreiche Exits wie der Verkauf von yfood an Nestlé (2023) zeigen: Der Markt ist in Bewegung, aber selektiv.
Functional Food als Innovationsmotor – aber nicht der einzige
Functional Food ist längst mehr als ein Trend: Es ist ein wachsendes Segment mit wissenschaftlicher Fundierung. Produkte wie funktionale Riegel, Drinks oder Functional Coffee verbinden Geschmack mit gesundheitlichem Mehrwert. Besonders gefragt sind derzeit Inhaltsstoffe wie Adaptogene, Pro- und Präbiotika, pflanzliche Proteine und weitere Mikronährstoffe.
Zugleich gewinnen auch alternative Proteinquellen (Pilze, Algen, Fermentation), klimapositive Lebensmittel und Zero-Waste-Konzepte an Bedeutung. Konsument*innen wollen Ernährung, die nachhaltig und leistungsfördernd ist.
Worauf Investor*innen achten – und was sie abschreckt
Aus Sicht eines/einer Investor*in zählen nicht nur Produktidee und Branding. Entscheidender ist:
- Ist das Team umsetzungsstark, resilient, multidisziplinär?
- Gibt es Traktion (z.B. Verkaufszahlen, Feedback, D2C-Erfolge)?
- Wie realistisch ist der Finanzplan? Sind Margen und Logistik durchdacht?
- Ist das Produkt skalierbar – auch international?
Abschreckend wirken hingegen: überschätzte Umsatzprognosen, fehlende Markteinblicke, instabile Lieferketten oder reine Marketingblasen ohne echte Substanz.
Es ist unschwer zu erkennen: Wer im Food-Bereich gründen will, braucht mehr als eine gute Idee. Der deutsche Markt ist selektiv, komplex und durch hohe Einstiegshürden geprägt. Gleichzeitig ist er enorm spannend für alle, die bereit sind, langfristig zu denken, regulatorisch sauber zu arbeiten und echten Mehrwert zu schaffen.
Food-Start-ups, die ihre Zielgruppe kennen, finanziell solide aufgestellt sind und wissenschaftlich fundierte Produkte entwickeln, haben reale Chancen auf Marktdurchdringung – besonders, wenn sie es schaffen, Handelspartner*innen und Konsument*innen gleichermaßen zu überzeugen.
Investor*innen sind bereit, in solche Konzepte zu investieren, aber sie erwarten mehr als Visionen: Sie erwarten belastbare, integrierte Geschäftsmodelle mit echtem Impact.
Internationaler Vergleich: Was Food-Start-ups in den USA anders machen
Die USA gelten als Vorreiter für Food-Innovation. Der Markt ist schneller, risikofreudiger und deutlich kapitalintensiver. Allein im Jahr 2023 flossen in den USA rund 30 Milliarden US-Dollar Wagniskapital in FoodTech und AgriFood-Start-ups – ein Vielfaches im Vergleich zu Deutschland. Start-ups wie Beyond Meat, Impossible Foods oder Perfect Day konnten in kurzer Zeit hunderte Millionen Dollar einsammeln, skalieren und international expandieren. Die wesentlichen Unterschiede zur deutschen Szene sind:
- Zugang zu Kapital: Amerikanische Gründer*innen profitieren von einer ausgeprägten Investor*innenlandschaft mit spezialisierten VCs, Family Offices und Corporate Funds. In Deutschland dominiert oft konservative Zurückhaltung.
- Marktzugang: Der US-Markt ist dezentraler organisiert. Start-ups können regional Fuß fassen und wachsen, ohne gleich auf landesweite Listungen angewiesen zu sein.
- Regulatorik: Die U.S. Food and Drug Administration (FDA) ist in vielen Bereichen offener gegenüber neuen Inhaltsstoffen und Health Claims – das ermöglicht schnellere Markteinführungen.
- Kultur & Narrative: Amerikanische Konsument*innen sind innovationsfreudiger. Sie schätzen Storytelling, Vision und Purpose deutlich mehr als europäische Kund*innen.
Das bedeutet nicht, dass der US-Markt einfacher ist. Er ist aber zugänglicher für disruptive Ideen, insbesondere wenn sie skalierbar und investor*innentauglich aufgesetzt sind.
Operative Herausforderungen: vom Prototyp zur Produktion
Die operative Skalierung ist einer der größten Stolpersteine für Food-Start-ups. Eine Rezeptur im Labormaßstab oder im Handwerk zu entwickeln, ist vergleichsweise einfach. Sie jedoch für den industriellen Maßstab zu adaptieren, bringt komplexe Fragestellungen mit sich:
- Wo finde ich einen Co-Packer mit Kapazitäten für Kleinserien?
- Wie skaliert mein Produkt ohne Qualitätsverlust?
- Wie optimiere ich Haltbarkeit ohne künstliche Zusätze?
- Welche Verpackung schützt das Produkt, erfüllt die Nachhaltigkeitsansprüche und passt zu den Preisvorgaben des Handels?
In Deutschland ist die Infrastruktur für Food-Start-ups im Vergleich zu den USA oder den Niederlanden unterentwickelt. Während es in den USA Inkubatoren mit angeschlossenen Produktionsstätten (z.B. The Hatchery in Chicago oder Pilotworks in New York) gibt, fehlt es hierzulande oft an bezahlbaren, flexiblen Produktionslösungen.
Gerade nachhaltige Verpackungen stellen viele Gründer*innen vor Probleme: Biologisch abbaubare Alternativen sind teuer, nicht immer kompatibel mit Logistikprozessen und oft nicht lagerstabil genug. Ein Spagat, der Investitionen und viel Know-how erfordert.
Erfolgsfaktor Vertrieb: Wie Produkte wirklich in den Handel kommen
Viele unterschätzen den Aufwand, der hinter einem erfolgreichen Listungsgespräch steht. Händler*innen erwarten nicht nur ein gutes Produkt – sie wollen einen Business Case:
- Wie hoch ist die Spanne für den Handel?
- Wie ist die Wiederkaufsquote?
- Wie sieht das Launch-Marketing aus?
- Gibt es POS-Materialien oder begleitende Werbekampagnen?
Ein Listungsgespräch ist kein Pitch – es ist ein Verhandlungstermin auf Basis knallharter Zahlen. Ohne überzeugende Umsatzplanung, Distributionserfahrung und schnelle Liefer- fähigkeit hat ein Start-up kaum Chancen auf eine langfristige Platzierung im Regal. Viele Gründer*innen lernen das schmerzhaft erst nach dem Launch.
Zukunftstechnologien im Food-Bereich
Die Food-Branche steht am Beginn einer technologischen Revolution. Neue Verfahren wie Präzisionsfermentation, Zellkultivierung, 3D-Food-Printing oder molekulare Funktionalisierung eröffnen völlig neue Produktkategorien. Beispiele sind:
- Perfect Day (USA) stellt Milchprotein via Mikroorganismen her – völlig ohne Kuh.
- Formo (Deutschland) produziert Käseproteine durch Fermentation.
- Revo Foods (Österreich) bringt 3D-gedruckten Fisch auf pflanzlicher Basis in die Gastronomie und Handel.
Diese Technologien sind kapitalintensiv, regulatorisch komplex, aber langfristig zukunftsweisend. Wer heute die Brücke zwischen Wissenschaft, Verbraucher*innenbedürfnis und industrieller Machbarkeit schlägt, wird zu den Innovationsführer*innen von morgen zählen.
Neben dem klassischen Lebensmitteleinzelhandel gewinnen alternative Vertriebskanäle zunehmend an Bedeutung. Insbesondere spezialisierte Bio- und Reformhäuser wie Alnatura, Denns oder basic bieten innovativen Start-ups einen niedrigschwelligen Einstieg, da sie auf trendaffine Sortimente, nachhaltige Werte und kleinere Produzent*innen setzen. Hier zählen Authentizität, Zertifizierungen und persönliche Beziehungen mehr als reine Umsatzversprechen.
Auch der Onlinehandel wächst rasant: Der Anteil von E-Commerce im deutschen Lebensmitteleinzelhandel liegt zwar erst bei etwa drei bis vier Prozent, doch Plattformen wie Amazon Fresh, Picnic, Knuspr oder Getir bieten zunehmend Raum für neue Marken. Gerade Quick-Commerce-Anbietende ermöglichen kurzfristige Testmärkte und agile Vertriebspiloten in urbanen Zielgruppen.
Der Blick in die USA zeigt, was in Europa bevorsteht: Dort erzielt TikTok bereits über seinen eigenen TikTok Shop mehr als 20 Milliarden US-Dollar Umsatz – Tendenz stark steigend. Immer mehr Food-Start-ups nutzen die Plattform direkt als Verkaufs- und Marketingkanal. Es ist nur eine Frage der Zeit, bis ähnliche Social-Commerce-Strukturen auch in Europa an Relevanz gewinnen – sei es über TikTok, Instagram oder neue, native D2C-Plattformen.
Weitere Trendfelder, die aktuell in den Fokus rücken, sind unter anderem:
- Regeneratives Essen: Lebensmittel, die nicht nur neutral, sondern positiv auf Umwelt und Biodiversität wirken. Beispiele: Produkte mit Zutaten aus regenerativer Landwirtschaft oder CO₂-bindende Algen.
- Blutzuckerfreundliche Ernährung: Start-ups wie Levels (USA) oder NEOH (Österreich) zeigen, wie personalisierte Ernährung über Glukose-Monitoring neue Märkte erschließen kann.
- „Food as Medicine“: Produkte, die gezielt auf chronische Beschwerden oder Prävention ausgelegt sind – beispielsweise bei Menstruationsbeschwerden, Wechseljahren oder Verdauungsstörungen.
- Zero-Waste-Produkte: Verwertung von Nebenströmen (z.B. aus Brauereien oder Obstpressen) zur Herstellung von Lebensmitteln mit Nachhaltigkeitsanspruch.
- Biohacking-Produkte: hochfunktionale Lebensmittel für kognitive Leistung, Schlaf, Erholung oder hormonelle Balance wie zum Beispiel der Marke Moments – by Biogena.
Die Zukunft von Food liegt in der Synthese aus Wissenschaft, Individualisierung und Nachhaltigkeit. Start-ups, die diese Megatrends frühzeitig besetzen, positionieren sich als Pioniere für eine neue Esskultur. Besonders wichtig in der Investor*innenansprache sind:
- Fundierte Zahlenkenntnis: Gründer*innen sollten Unit Economics, Break-Even-Szenarien und Roherträge detailliert erklären können. Vage Aussagen über Marktpotenzial reichen nicht – es braucht belastbare Szenarien.
- Proof of Concept: Idealerweise liegt bereits ein MVP (Minimum Viable Product) mit echter Kund*innenvalidierung vor. Pilotprojekte mit Handelspartner*innen oder Online-Abverkäufe liefern harte Daten.
- Storytelling mit Substanz: Purpose ist gut – aber er muss betriebswirtschaftlich verankert sein. Was motiviert das Team? Wo liegt der USP? Wie stark ist der Wettbewerb?
- Team-Komplementarität: Ein starkes Gründer*innen-Team vereint Produkt- und Marktwissen, betriebswirtschaftliches Denken und Leadership-Kompetenz.
- Exit-Szenario: Investor*innen wollen eine Perspektive: Wird es ein strategischer Verkauf, ein Buy- & Build-Modell oder ein langfristiger Wachstums-Case?
Wer Investor*innen mit klarer Struktur, realistischen Annahmen und ehrlicher Kommunikation begegnet, hat bessere Chancen auf Kapital – inbesondere in einem Markt, der aktuell selektiver denn je agiert. Genau hier liegt die Kernkompetenz von Food-Start-up-Helfer*innen wie der Alimentastic Food Innovation GmbH, die nicht nur in innovative Unternehmen investiert, sondern ihnen aktiv dabei hilft, die oben genannte operative Komplexität zu überwinden und den Time to Market signifikant zu verkürzen – von der Produktidee bis hin zur Umsetzung im Handel.
Fazit
Der deutsche Food-Start-up-Markt ist herausfordernd, aber voller Chancen. Wer heute erfolgreich gründen will, braucht nicht nur eine starke Produktidee, sondern ein tiefes Verständnis für Produktion, Vertrieb, Kapitalstruktur und Markenaufbau. Functional Food, nachhaltige Innovationen und technologiegetriebene Konzepte bieten enorme Wachstumsmöglichkeiten – vorausgesetzt, sie werden professionell umgesetzt und skalierbar gedacht.
Der Autor Laurenz Hoffmann ist CEO & Shareholder der Alimentastic Food Innovation GmbH und bringt langjährige Erfahrung aus dem Lebensmitteleinzelhandel mit.
“Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit”
„Made in Steel. Built on Data.“ Mit diesem Leitsatz positioniert sich die EMR Dynamics GmbH als strategische Antwort auf die zunehmende Komplexität globaler Lieferketten – und auf die wachsenden Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Wertschöpfungsnetzwerken.
Unter der Leitung von Emrullah Görsoy geht EMR Dynamics aus einem Berliner Familienunternehmen hervor, das seit 2005 als verlässlicher Partner für mechanische Komponenten in Europa etabliert ist. Nun markiert das Unternehmen den nächsten Entwicklungssprung der Unternehmensgeschichte: von der Fertigung zur Plattform.
Fragen dazu an Emrullah Görsoy, Managing Director at EMR:
Seit mehr als 20 Jahren seid ihr mit EMR am Markt. Man könnte sagen, ihr macht vieles richtig – Wie lautet euer Erfolgsrezept?
Unser Erfolgsrezept liegt in der konsequenten Weiterentwicklung. Wir haben uns nie auf bestehenden Strukturen ausgeruht, sondern das Unternehmen immer wieder neu gedacht – operativ, strategisch und technologisch. Besonders in Zeiten des Wandels war unser pragmatischer Unternehmergeist entscheidend. Dabei kombinieren wir mittelständische Robustheit mit einer agilen Denkweise – anpassungsfähig, resilient und wachstumsorientiert.
Zeitnah startet ihr mit eurer Neugründung EMR Dynamics am Markt. Was steckt dahinter?
EMR Dynamics ist unsere Antwort auf ein fragmentiertes Marktumfeld und wachsende Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Lieferketten. Wir verbinden vertikal integrierte Fertigungskompetenz mit einer digitalen Prozessarchitektur – eine B2B-Plattform für die intelligente Steuerung und Vermittlung industrieller Produktions- und Beschaffungsprozesse. Das Ziel: maximale Skalierbarkeit, reduzierte Time-to-Market und durchgängige Prozesssicherheit für unsere Kunden.
Damit schlagen wir die Brücke zwischen Mittelstand und digitaler Ökonomie – resilient, effizient und kundennah. Wir wollen EMR Dynamics als Plattformmarke im industriellen Mittelstand etablieren – mit eigener Fertigung, digitalem Backbone und strategischer Nähe zum Kunden.
An wen richtet sich euer Angebot?
Unsere Zielgruppen sind OEMs, Tier-1-Zulieferer und Systempartner aus hoch regulierten und qualitätskritischen Industrien – etwa Rail, Aerospace, Defense oder Industrial Tech. Wir liefern nicht nur Komponenten, sondern vernetzen Prozesse, sichern Supply Chains ab und schaffen Plattformlösungen für beschleunigte Wertschöpfung – alles aus einer Hand.
Wie unterscheidet sich euer Angebot von klassischen Fertigungsdienstleistern?
Wir sind kein reiner Teilelieferant. Wir verstehen uns als Lösungsanbieter entlang der industriellen Wertschöpfung – von Co-Engineering und Prototyping über skalierbare Serienfertigung bis hin zur integrierten Lieferkette. Durch die Plattformlogik können wir unsere Prozesse mit denen unserer Kunden synchronisieren und so Time-to-Market und Lieferperformance signifikant verbessern – gerade für komplexe und hochqualifizierte Baugruppen.
Seit mehreren Jahren bist du Geschäftsführer des Unternehmens EMR Industrial. Wie fühlt es sich an, als Young Professional bereits in einer solchen verantwortungsvollen Rolle zu sein?
Herausfordernd, aber erfüllend. Ich hatte das Privileg, früh Verantwortung zu übernehmen – besonders während der Transformation von EMR in der Pandemie. Die Krise 2020 hat uns gezwungen, unser gesamtes Geschäftsmodell zu pivotieren. Diese Erfahrung hat mich geprägt: Strategisch zu denken, unternehmerisch zu handeln und nie den Kontakt zur operativen Realität zu verlieren.
Welche Bedeutung hat die Digitalisierung aus deiner Sicht für den Mittelstand und was können sich Mittelständler von Start-ups abschauen?
Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit. Der Mittelstand kann von Start-ups besonders eines lernen: den Mut, Prozesse radikal neu zu denken – und den Fokus auf Geschwindigkeit, Automatisierung und User Experience.
Emrullah Görsoy, Danke für die Insights
5 Tipps für GPT-Sichtbarkeit im Netz
Warum klassisches SEO allein nicht mehr ausreicht und wie Unternehmen für die KI-Antworten der GPT-Modelle sichtbar werden.
Die Spielregeln der digitalen Sichtbarkeit werden gerade neu geschrieben – und die Unternehmen müssen sich neu aufstellen. Denn während viele Unternehmen ihre Strategien noch immer ausschließlich auf Google-Rankings und SEO-Kriterien ausrichten, verlagert sich die digitale Aufmerksamkeit längst in Richtung KI: Sprachmodelle wie ChatGPT, Claude oder Gemini ersetzen zunehmend die klassische Suche. Sie liefern keine Trefferlisten mehr, sondern direkte, aufbereitete Antworten – oft mit konkreten Empfehlungen und Verlinkungen. Für Marken, Produkte und Unternehmen wird es damit entscheidend, in diesen zusammengefassten Antworten stattzufinden. Das Stichwort hierfür ist technisches SEO für KI-Rankings.
Suchmaschinen waren gestern das führende Element in der Sortierung von Wissen im Netz und vor allem das Google-Ranking war entscheidend für die Sichtbarkeit von Informationen und Seiten. In Zukunft entscheiden dagegen Sprachmodelle darüber, welche Inhalte gesehen, zitiert und empfohlen werden. Und wer in diesen Systemen nicht genannt wird, verliert den direkten Draht zur Zielgruppe.
Diesen Paradigmenwechsel vom Google-Ranking zur Antwortlogik hat die SMAWAX, die auf Strategieberatung spezialisierte Agentur der Smarketer Group, erstmals systematisch im Rahmen eines Whitepapers analysiert (s. Link am Ende des Beitrags). Die Expert*innen erklären dabei detailliert, wie GPT-Modelle Inhalte auswählen – und welche Inhalte von den Systemen überhaupt referenziert werden dürfen. Die zentrale Erkenntnis: Suchmaschinenoptimierung nach alten Regeln greift zu kurz, ist aber weiterhin die Sichtbarkeitsgrundlage. Denn Sprachmodelle wie ChatGPT denken nicht in Keywords und Rankings, sondern in semantischen Relevanzräumen, Entitätenbeziehungen und struktureller Klarheit.
Inhalte müssen modular und semantisch präzise sein – doch das reicht nicht
Es geht nicht mehr um Top-Rankings – es geht darum, die richtige Antwort zu sein. Wir müssen SEO neu denken – als Schnittstelle zwischen Struktur, Relevanz und maschinellem Verstehen. Inhalte müssen dazu maschinenlesbar, modular aufgebaut und semantisch präzise sein. Nur dann haben Unternehmen eine Chance, in den Empfehlungslogiken von Claude, GPT & Co. aufzutauchen.
Besonders überraschend ist dabei aber, dass viele Unternehmen in GPT-Antworten zwar durchaus latent präsent, aber nicht sichtbar sind. Der Grund hierfür sind unscharfe Entitäten, fehlende „About“-Seiten, keine Verankerung in externen Quellen wie Wikidata, Trustpilot oder LinkedIn. Die Folgen wirken sich negativ auf die Marken aus und sorgen für Fehlinformationen: KI-Modelle verwechseln Marken, halluzinieren Funktionen oder verschweigen relevante Angebote. Halluzinationen sind in Wahrheit ein strategischer Hinweis auf Unsichtbarkeit. Wenn GPT ein Produkt falsch beschreibt oder dich mit einem Mitbewerber verwechselt, zeigt das: Deine Inhalte sind zwar irgendwo im Modell – aber nicht stabil genug verankert, um korrekt genannt zu werden.
Fünf konkrete Hebel für bessere GPT-Sichtbarkeit
Diese praxisnahe Handlungsempfehlungen können Unternehmen sofort umsetzen können – unabhängig davon, ob sie im B2B- oder B2C-Bereich aktiv sind.
1. Entitäten definieren: Jede Marke braucht heute eine kanonische „About“-Seite, ergänzt um ein Wikidata-Profil, semantische Markups und gleiche Namensverwendungen auf Plattformen wie LinkedIn oder Handelsregister.
2. Aktualität signalisieren: GPT-Modelle bevorzugen Inhalte mit klaren Update-Daten (z.B. dateModified). Ohne erkennbaren Pflegezustand gelten Inhalte als veraltet – und werden ausgefiltert.
3. Bing wird zum Gateway: Weil GPT seine Websuche auf Bing stützt, ist dessen Indexierung entscheidend. Wer dort nicht sauber auffindbar ist, existiert in GPT-Antworten nicht.
4. Content chunkbar machen: Inhalte sollten nicht mehr aus langen Fließtexten bestehen, sondern in modularen Blöcken mit H2-Strukturen, Listen und Zwischenfazits aufgebaut sein.
5. Externe Signale einbinden: Erwähnungen auf Trustpilot, Reddit oder in der Fachpresse stärken die semantische Autorität – und erhöhen die Chance, von Sprachmodellen zitiert zu werden.
Fazit
Die neue Sichtbarkeit entsteht durch das, was das Modell nicht selbst erzeugen kann – sie entsteht also nicht über Rankings, sondern über Relevanzräume. Wer auf Standard-Content setzt, wird paraphrasiert oder übergangen. Wer dagegen einzigartigen, strukturierten und technisch klaren Content liefert, wird empfohlen.
Zum Weiterlesen: Das Whitepaper steht zum kostenlosen Download bereit unter www.smawax.com/whitepaper-ki-sichtbarkeit
ARX Robotics: Tech for Defense
Wie die ARX-Robotics-Gründer Maximilian Wied, Marc A. Wietfeld und Stefan Röbel Europas führendes DefTech-Start-up für unbemannte autonome Landsysteme gebaut haben.
Ein Start-up aus München denkt Europas Sicherheit neu – mit modularen Robotern, digitalen Aufklärungssystemen und einem iterativen Entwicklungsansatz, der hinsichtlich Flexibilität und Geschwindigkeit in der Branche neue Maßstäbe setzt. „Wir nutzen das transformative Potenzial von Robotik und KI, um die Leistungsfähigkeit der europäischen Landstreitkräfte zu stärken“, sagt Marc A. Wietfeld, Mitgründer und CEO von ARX Robotics in München. „Mit unserem Betriebssystem Mithra OS ermöglichen wir fernoperierbare, kettenbetriebene Landfahrzeuge sowie die Digitalisierung bestehender Flotten.“
Die Roboter entstehen auf einer einheitlichen technologischen Plattform mit flexiblem, modularem Aufbau. Sie lassen sich einfach anpassen und aufrüsten, was das Einsatzspektrum enorm erweitert. „Unsere Plattform ist wie das Schweizer Taschenmesser für Militäreinsätze“, so der Gründer. Neben der Hardware und dem KI-gestützten Betriebssystem liefert das Start-up auch Schnittstellen, um bestehende analoge Rüstungstechnologie und softwaregetriebene Systeme zu integrieren.
Drei Offiziere nehmen die Entwicklung selbst in die Hand
Gegründet wurde ARX Robotics von drei ehemaligen Bundeswehroffizieren. Marcs Weg begann mit einer Schlosserlehre, bevor er 2010 für den Wehrdienst eingezogen wurde. Damals konnte er kaum glauben, wie veraltet die Technologie der Truppe war. „Eine Playstation hatte bessere Software als viele Waffensysteme, und Drohnen aus dem Elektrofachmarkt waren leistungsfähiger als die im Kampfeinsatz.“ Während Marc in New York ein militärisches Programm absolvierte, lernte er Maximilian (Max) Wied kennen, der zu dieser Zeit an der Militärakademie West Point studierte. Beide hatten den Innovationsstau jahrelang erlebt und durch ihre Zeit in der Kampftruppe die Realität von Häuser-, Wald- und Grabenkämpfen hautnah kennengelernt.
In Robotik und Automatisierung sahen sie enormes ungenutztes Potenzial, um Soldat*innen zu schützen und Einsätze effizienter zu gestalten. „Am Anfang ging es uns gar nicht darum, Roboter zu bauen“, so Marc, „sondern darum, wie wir neue Technologie schneller in die Hand der Soldatinnen und Soldaten bekommen.“ Rund zwei Jahre arbeiteten sie am Konzept und an der Umsetzung. Die ersten Prototypen entstanden in Eigenregie, finanziert aus privaten Mitteln.
Stefan Röbel stieß dazu, als klar wurde, dass aus dem Projekt ein Unternehmen werden sollte. Neben dem militärischen Hintergrund bringt er Erfahrung im Aufbau und in der Skalierung von Start-ups mit. Zuvor war Stefan bereits bei Tech-Unternehmen an Bord, darunter Amazon, ASOS und Grover, wo er den Weg von der Series-A-Finanzierung bis zum Unicorn begleitete.
Als die Ersparnisse aufgebraucht waren, erhielt das Gründungsteam Unterstützung vom Innovation Hub der Bundeswehr und der Universität der Bundeswehr in München. Ende 2022 gründeten die drei schließlich ihr Unternehmen.
Die Brücke zur vernetzten Zukunft des Militärs
ARX Robotics füllt eine kritische Lücke in der militärischen Technologielandschaft, zwischen der analogen Vergangenheit und der softwaregesteuerten Zukunft. Viele bestehende Systeme wie etwa Panzer, Transportfahrzeuge und Helikopter operieren noch weitgehend analog und damit isoliert voneinander. Doch bewaffnete Konflikte werden heute vernetzt, KI-gestützt und mithilfe unbemannter Systeme entschieden. Die militärische Ausrüstung ist in vielen Ländern Europas noch nicht auf der Höhe der Zeit. „Mit unseren Lösungen bauen wir die Brücke zwischen den beiden Welten“, sagt Marc.
ARX Robotics überträgt die moderne technologische Architektur auf bestehende Militärfahrzeuge. Die analogen Bestandssysteme werden damit robotisiert, sodass sie mit modernen Drohnen und digitalen Einheiten zusammenarbeiten können – ein entscheidender Faktor für die Digitalisierung der Landstreitkräfte und Interoperabilität. „Früher war das Militär die Technologieschmiede der Gesellschaft, doch in den 1980er-Jahren hat die zivile Forschung die Streitkräfte überholt, auch bei den sicherheitsrelevanten Anwendungen“, so Marc.
Die etablierte Verteidigungsindustrie hat sich unterdessen auf immer komplexere und schwerfällige Großsysteme konzentriert. Bei einem größeren militärischen Entwicklungsprojekt ist in der Regel der gesamte militärische Apparat involviert, mit Planungs- und Beschaffungsämtern, langen Prozessen und seitenlangen Anforderungskatalogen. Erhält ein Ausrüster den Zuschlag, bekommt dieser Steuergelder, um einen Prototyp zu bauen „Die Entwicklung neuer Plattformen dauert dadurch oft ein Jahrzehnt, und die Produktion braucht weitere fünf Jahre“, sagt Marc. Schon bei der Indienststellung ist das Material zwangsläufig technologisch veraltet. ARX Robotics will den Prozess vom Kopf auf die Füße stellen. „Wir sind davon überzeugt, dass unsere Systeme den Soldatinnen und Soldaten im Einsatz sofort Mehrwert liefern“, so Marc. „Darum übertragen wir die neuen Technologien so schnell wie möglich ins Militär.“
Zurückhaltende Investor*innen und hohe Eintrittsbarrieren
Der Weg zur ersten externen Finanzierung war jedoch alles andere als einfach. „Kaum ein Risikokapitalgeber hat sich 2022 für DefenseTech und Hardware interessiert“, sagt Marc. Unter europäischen VCs dominierte das Dogma, dass nur Software skalierbar sei, idealerweise als SaaS-Modell. „Als Start-up mit einer physischen Technologie, noch dazu geführt von drei Soldaten ohne Gründungserfahrung, passten wir nicht ins Schema“, erinnert sich Marc.
Zudem war das Thema Verteidigung als Investment noch sehr negativ behaftet. VCs wollten nicht in Systeme investieren, die potenziell im Kampfeinsatz genutzt werden können. Sie sorgten sich um das öffentliche Bild und mögliche Bedenken institutioneller Geldgeber*innen. Mitte 2023 konnte ARX Robotics dann mit dem Risikokapitalgeber Project A Ventures als Lead Investor die Seed-Finanzierungsrunde schließen.
„Die anfänglich größte Hürde für uns war, nicht als Start-up, sondern als ernstzunehmender Anbieter wahrgenommen zu werden“, so Marc. Der Rüstungsmarkt ist stark konsolidiert und protektiv. Etablierte Player wie Rheinmetall, BAE Systems oder Krauss-Maffei Wegmann arbeiten seit Jahrzehnten fest mit ihren Kund*innen zusammen und bewegen sich in gewachsenen Strukturen. „Das Vertrauen der Streitkräfte zu gewinnen und die Beteiligung an einem großen Rüstungsprojekt zu erhalten, ist eine Schallmauer, die nur sehr wenige Start-ups durchbrechen“, sagt Marc.
Iterative Entwicklung und Tests im Feld
ARX Robotics punktet im Markt unter anderem mit dem radikal nutzer*innenzentrierten Entwicklungsansatz. Das Team setzt auf schnelle Iterationen mit voll funktionsfähigen Prototypen. Diese werden von Soldat*innen zeitnah getestet, häufig direkt in der Kampfzone. Das Feedback fließt sofort in die Weiterentwicklung ein, sodass in kürzester Zeit gebrauchsfertige Systeme entstehen. Der Fokus in der Entwicklung liegt stets auf der Software. „Das Betriebssystem ist der Kern unserer Lösungen, ob es am Ende einen Roboter oder einen Panzer steuert, ist zweitrangig“, sagt Marc.
Anders als der Wettbewerb setzt ARX Robotics auf offene Schnittstellen, modulare Komponenten und flexible Integration. Die großen Rüstungsfirmen mit ihren etablierten, geschützten Ökosystemen können dieses Modell nur schwer adaptieren. Stattdessen setzen sie auf Partnerschaften.
Mit Rheinmetall zum Beispiel arbeiten die Gründer derzeit an mehreren Projekten, und Daimler nutzt die ARX-Technologie, um die gesamte militärische Fahrzeugflotte zu digitalisieren. Um sicherzustellen, dass das Know-how und die Technologie in europäischer Hand bleiben, hat das Team frühzeitig den NATO Innovation Fund mit ins Boot geholt.
Wie digitale Unternehmen Alltagsprobleme systematisch lösen – Ein Blick auf Parkos
Parkos zeigt, wie ein digitales Unternehmen Herausforderungen beim Flughafenparken meistert.
Es gibt sie überall, diese kleinen alltäglichen Ärgernisse, die erst einmal banal erscheinen, im Alltag aber schnell zu echten Zeitfressern und Stressquellen werden können. Die Parkplatzsuche an Flughäfen gehört dazu – gerade in stark frequentierten Städten, wo jeder Parkplatz ein kostbares Gut ist. Genau hier setzt Parkos an, ein digitales Unternehmen mit Start-up-Wurzeln, das seit über einem Jahrzehnt den Markt für Parkplatzvermittlung revolutioniert. Parkos.de macht es möglich, entspannt einen Parkplatz zu buchen und so lästige Suchfahrten zu vermeiden.
Vom Alltagsproblem zur digitalen Lösung
Das Beispiel der Parkplatzsuche zeigt exemplarisch, wie digitale Unternehmen Alltagsprobleme systematisch angehen. Nicht immer ist es die große Innovation, die den Markt verändert, sondern die konsequente und nutzerzentrierte Verbesserung bestehender Prozesse. Die Gründer von Parkos erkannten früh, dass der Prozess des Parkplatzfindens in der Nähe von Flughäfen ineffizient und für Reisende oft belastend ist. Überfüllte Parkplätze, lange Fußwege oder teure Kurzzeitangebote waren die Regel.
Diese Herausforderungen boten die perfekte Ausgangslage für eine digitale Plattform, die Anbieter von Parkplätzen und Kunden unkompliziert zusammenbringt. Dabei geht es nicht nur um die reine Vermittlung, sondern um Transparenz, Vergleichbarkeit und Nutzerfreundlichkeit. Das ist der Kern der Plattformökonomie, die heute zahlreiche Branchen prägt – von der Mobilität über die Gastronomie bis hin zum Einzelhandel.
Parkos als Beispiel für Plattformökonomie
Plattformen funktionieren nach dem Prinzip, Angebot und Nachfrage in einem digitalen Marktplatz zu verknüpfen. Für Parkos bedeutet das: Parkplätze von verschiedensten Anbietern – private Parkflächen, Hotels, bewachte Parkhäuser – werden auf einer übersichtlichen Website zusammengeführt. Kunden können Preise, Entfernung zum Flughafen und Bewertungen vergleichen. Die Buchung erfolgt direkt online, oft mit flexiblen Stornierungsbedingungen.
Dieser transparente und einfache Zugang löst ein grundlegendes Problem: Wer kennt schon die besten Parkmöglichkeiten in Flughafennähe? Vorbei sind die Zeiten der langen Suchfahrten und Unsicherheiten. Eine entsprechende Plattform steigert nicht nur die Effizienz, sondern reduziert durch die bessere Planung auch den Stress für Reisende.
Interessant ist dabei auch, dass das Unternehmen selbst kein Parkplatzbetreiber ist. Das Unternehmen agiert als Vermittler – und zeigt damit, wie wichtig digitale Infrastruktur und Vertrauensbildung für moderne Geschäftsmodelle sind. Die Nutzerbewertungen auf der Plattform tragen dazu bei, das Angebot ständig zu verbessern.
Technologie als Enabler für bessere Nutzererfahrung
Ein weiterer wichtiger Baustein im Erfolg ist der gezielte Einsatz von Technologie. Eine übersichtliche Website, eine mobile App und einfache Bezahlmethoden sind heute Standard, doch wie diese Tools eingesetzt werden, macht den Unterschied. Die Plattform bietet nicht nur Such- und Buchungsmöglichkeiten, sondern auch Informationen zu Services wie Shuttle-Bussen, Öffnungszeiten und Sicherheitsstandards der Parkplätze.
Die Integration von Kundenbewertungen schafft eine soziale Kontrollinstanz, die Vertrauen aufbaut. So können Nutzer anhand von Erfahrungen anderer Reisender einschätzen, ob ein Parkplatz ihren Erwartungen entspricht. Dieses Feedback wird von Unternehmen genutzt, um Anbieter zu prüfen und kontinuierlich zu verbessern.
Nicht zuletzt erleichtern digitale Services auch die Reiseplanung insgesamt. Verbindliche Buchungen minimieren Überraschungen vor Ort und tragen dazu bei, den gesamten Ablauf stressfreier zu gestalten.
Digitales Angebot im Alltag – mehr als nur Bequemlichkeit
Das Beispiel Parkos zeigt, dass digitale Lösungen oft mehr leisten als reine Bequemlichkeit. Sie greifen in gesellschaftlich relevante Bereiche ein – hier etwa die Mobilität. Bessere Parkplatzplanung bedeutet weniger Suchverkehr, weniger Emissionen und damit einen Beitrag zur Entlastung urbaner Verkehrsräume.
Auch für Unternehmen eröffnen Plattformen wie Parkos neue Chancen. Kleine und mittelgroße Parkplatzanbieter können so ein größeres Publikum erreichen, ihre Auslastung verbessern und wirtschaftlicher arbeiten. Dies steht im Zeichen einer funktionierenden Sharing Economy, die Ressourcen besser nutzt.
Die Relevanz digitaler Vermittlungsplattformen
Digitale Vermittlungsplattformen sind längst mehr als reine Serviceangebote. Sie verändern zunehmend die Art, wie Menschen sich fortbewegen, arbeiten oder ihre Freizeit gestalten. Die Vermittlung von Parkplätzen am Flughafen ist ein kleines, aber anschauliches Beispiel dafür, wie digitale Geschäftsmodelle dazu beitragen können, den Alltag effizienter zu gestalten und Ressourcen besser zu nutzen.
Indem sie Buchung und Planung vereinfachen, tragen solche Plattformen dazu bei, dass unnötige Suchfahrten entfallen. Das hat nicht nur eine Zeitersparnis für den Einzelnen zur Folge, sondern auch einen spürbaren Effekt auf den Verkehr rund um stark frequentierte Orte. Weniger Staus bedeuten weniger Emissionen – ein relevanter Beitrag zum Klimaschutz, der auf den ersten Blick vielleicht unspektakulär wirkt, bei genauerem Hinsehen jedoch enorm.
Außerdem profitieren kleine Anbieter von Parkplätzen von der Reichweite solcher digitalen Marktplätze. Sie können ihre freien Kapazitäten besser auslasten und so wirtschaftlicher arbeiten. Damit entsteht eine Win-Win-Situation, die durch die Vernetzung und Digitalisierung erst möglich wird.
Praxisnahe Erkenntnisse für Gründer und Unternehmer
Für Unternehmer, die digitale Geschäftsmodelle entwickeln oder optimieren wollen, steckt in diesem Beispiel einiges an Praxiswissen. Erstens: Das genaue Erkennen eines echten Alltagsproblems ist entscheidend. Hier war es die Parkplatzsuche – eine scheinbar kleine Herausforderung mit großem Frustpotenzial.
Zweitens zeigt sich, wie wichtig eine konsequente Nutzerzentrierung ist. Transparente Preise, Vergleichbarkeit und unkomplizierte Buchungsprozesse schaffen Vertrauen. Gerade in Zeiten, in denen Konsumenten eine nahtlose User Experience erwarten, entscheidet die Qualität der digitalen Schnittstellen oft über Erfolg oder Misserfolg.
Drittens wird deutlich, wie wichtig Vertrauen im Plattformgeschäft ist. Nutzerbewertungen, transparente Kommunikation und klare Buchungsbedingungen helfen, Unsicherheiten abzubauen. Das gilt nicht nur für die Parkplatzvermittlung, sondern für alle digitalen Vermittler.
Viertens: Flexibilität und kontinuierliche Verbesserung sind ein Muss. Digitale Geschäftsmodelle müssen sich an wechselnde Anforderungen und neue technische Möglichkeiten anpassen, um relevant zu bleiben.
Wo liegen die Herausforderungen?
Trotz aller Vorteile stehen digitale Plattformen auch vor Herausforderungen. Zum Beispiel die Frage nach Datenschutz und Sicherheit der Kundendaten, die immer sensibler wahrgenommen wird. Auch die Balance zwischen Anbieterinteressen und Nutzerbedürfnissen ist oft ein Balanceakt.
Nicht zuletzt sind digitale Unternehmen auf stabile und schnelle Internetverbindungen angewiesen – was vor allem auf dem Land oder in entlegenen Gebieten nicht selbstverständlich ist. Gerade hier zeigt sich, dass digitale Innovationen nicht automatisch alle gesellschaftlichen Schieflagen beheben.
Fazit: Digitalisierung als Werkzeug für pragmatische Lösungen
Der Blick auf die Vermittlung von Parkplätzen an Flughäfen macht eines klar: Digitalisierung funktioniert dann am besten, wenn sie echte, greifbare Probleme löst. Es geht nicht um bloße Technik, sondern um den Mehrwert, den Unternehmen und Plattformen schaffen – für Nutzer, Anbieter und die Gesellschaft.
Ein erfolgreicher digitaler Vermittler zeichnet sich dadurch aus, dass er Transparenz, Vertrauen und Nutzerfreundlichkeit in den Mittelpunkt stellt. Die Kombination aus technischer Innovation und konsequenter Orientierung an den Bedürfnissen der Kunden bildet das Fundament für nachhaltiges Wachstum.
Für Gründer und Unternehmer ist die Botschaft: Kleine, präzise Lösungen können große Wirkung entfalten. Wer genau hinschaut und mit digitaler Intelligenz Alltagssituationen verbessert, schafft nicht nur Mehrwert, sondern auch ein tragfähiges Geschäftsmodell.
Circunomics startet eigenes Batterie-Testlabor
Die Circunomics-Gründer Felix Wagner und Jan Born haben sich das Ziel gesetzt, eine zirkuläre Batteriewirtschaft zu etablieren, indem sie einen digitalen Marktplatz für den Second-Life-Einsatz und das Recycling gebrauchter Batterien bieten. Mit der Einrichtung des eigenen Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort.
„Die Kreislaufwirtschaft ist in Zukunft von immer größerer Bedeutung. Dies ist für uns die große Chance, mit dem digitalen Marktplatz für gebrauchte Batterien, Module und Zellen eine herausragende Position einzunehmen“, sagt Felix Wagner, Co-Founder und CEO von Circunomics. „Im Jahr 2030 werden alleine im Automobilsektor zwischen 200 und 300 Millionen Elektrofahrzeuge auf den Straßen der Welt unterwegs sein. Das bedeutet, dass dann jedes Jahr etwa sechs Millionen gebrauchte Batterien als Rückläufer aus Altfahrzeugen auf den Markt kommen. Diese wiederzuverwenden oder gezielt zu recyclen ist eine Mega-Aufgabe, die gelöst werden muss. Schließlich haben wir alle ein Ziel: Weniger CO2 zu produzieren und weniger der wertvollen, seltenen Rohstoffe zu verbrauchen.“
Battery Lifecycle Management Solution
Die Ergebnisse KI-basierter Analysen von gebrauchten Batterien, die beispielsweise in elektrischen Fahrzeugen verwendet werden, mit selbst ermittelten Laborwerten aus einer Real-Life-Simulation abgleichen, trainieren und verifizieren: Das ist die Aufgabe des neuen Batterie-Testlabors, das vom Start-up Circunomics in Roßdorf bei Darmstadt eingerichtet wurde und jetzt seinen Betrieb vollumfänglich aufgenommen hat.
Die 2019 gegründete Circunomics GmbH ist damit in der Lage, eine Datenbasis für die selbst entwickelte Software aufzubauen, die wiederum genutzt wird, um den Gesundheitszustand (State of Health) einer gebrauchten Batterie während und nach einer Erstverwendung (First Life) sehr präzise zu ermitteln. Vielmehr aber kann detailliert simuliert und hochgerechnet werden, wie sich die gebrauchte Batterie bei einer Zweitverwendung (Second Life) zum Beispiel in einem stationären Speichersystem verhält. Zudem kann eine Empfehlung ausgesprochen werden, welche Batterien für das jeweilige Projekt am besten geeignet sind.
Mit der Einrichtung des Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort, die nach einer erfolgreich durchgeführten Series-A-Finanzierungsrunde möglich ist. Zu Jahresbeginn 2025 hatte Circunomics von Investor*innen über acht Millionen Euro erhalten.
Real-Life-Simulation im Testlabor
Im neuen Batterie-Testlabor in Roßdorf können je nach Bedarf und Programm verschiedene Zellen gleichzeitig in einer sicher abgeschirmten Prüfeinrichtung untergebracht und unterschiedlichsten Belastungen ausgesetzt werden. Es erfolgt eine umfangreiche Real-Life-Simulation täglicher Batterienutzungssituationen beispielsweise in einem Elektrofahrzeug: Schnell oder langsam aufeinander folgende Ladezyklen, unterschiedliche Ladestromstärken mit bis zu 300 Ampere Gleichstrom, verschiedene Degradierungszustände der Batterie und das Ganze – wenn notwendig – bei unterschiedlichen Temperaturen. Möglich ist eine Temperaturspanne von minus 20 bis plus 60 Grad Celsius. Die jeweiligen Tests der Zellen können über einen kurzen, mittleren oder längeren Zeitraum durchgeführt werden. Das können wenige Tage, Wochen und Monate, aber auch bis zu zwei Jahre sein.
„Bisher haben wir die Zellen von einem externen Dienstleister analysieren lassen. Diese Aufgaben nehmen wir jetzt selbst in die Hand, erhöhen damit unsere Effizienz, sind schneller mit dem Abgleich von Daten, wodurch wir in der Lage sind, unsere Simulationen und Hochrechnungen für eine Verwendung im Second Life noch genauer und zuverlässiger anbieten zu können“, erklärt Jan Born, Co-Founder und CTO von Circunomics. Und ergänzt: „Wir haben einerseits Millionen von Daten, die während des First Life einer Batterie gesammelt werden und die uns zur Verfügung gestellt werden. Auf dieser Basis haben wir bisher mit der KI-unterstützten Software am Computer analysiert, was die gebrauchte Batterie noch im Stande ist, im Second Life zu leisten, bevor sie dann endgültig dem Recycling zugeführt wird. Im neuen Labor und mit den eigenen Analysen sehen wir nun, wie sich eine Zelle im simulierten Batterieleben verhält und wir können die dabei ermittelten Ergebnisse, mit denen aus der Software abgleichen und verifizieren.“

