InsurTech - die Evolution einer Branche

Autor: Jakob Milzner, Cathleen Wolf
44 likes

Digitale Technologien verändern zunehmend auch das Prinzip Versicherung. Produkte werden zukünftig in der Lage sein, Risikosituationen präzise zu analysieren und so Schäden zu vermeiden, noch bevor sie auftreten. Diese Entwicklungen bringen große Chancen und Herausforderungen auch für InsurTech-Gründer mit sich.

Ein sonniger Februartag im Jahr 2030. Sophia könnte glücklich sein: Der Frühling kündigt sich bereits in ersten Frühblühern an, die kurzen, grauen Wintertage scheinen passé. Doch Sophia ist unglücklich. Vor einigen Tagen ist überraschend ihr Großvater gestorben und keine Sonne und keine Blumen können sie über ihren Verlust hinwegtrösten.

Solche Schicksalsschläge gehören zum Menschsein dazu, diese Erfahrung muss nun auch Sophia machen. Doch dann passiert etwas, das frühere Generationen nicht kannten; etwas, das viele Menschen in früheren Zeiten mit Angst erfüllt hätte. Sophia ruft ihren Großvater an – und mit seiner vertrauten Stimme antwortet er ihr am anderen Ende und für eine Weile ist es, als wäre der alte Mann nicht tot, sondern nur verreist.

Natürlich ist es nicht der Großvater, der ihr antwortet. Dieser aber hat in den letzten Monaten seines Lebens eine künstliche Intelligenz (KI) trainiert, die jetzt in der Lage ist, Stimme, Wissensstand und selbst den Humor des Verstorbenen täuschend echt zu simulieren.

Diese Szene klingt nach Science Fiction, sie könnte direkt aus der vielgelobten amerikanischen Serie Black Mirror stammen. Doch wenn es nach Sven Gábor Jànszky geht, Zukunftsforscher und Leiter des 2b AHEAD ThinkTanks, handelt es sich um einen realistischen Blick in die technologische Entwicklung der nächsten zehn Jahre. Und dabei könnten Versicherungen eine ganz große Rolle spielen. Aber wie?

Drei Säulen der Zukunftsforschung

Um die Bedeutung zu verstehen, die KI einmal haben wird, kann man sich laut Jànszky an drei Säulen orientieren. Deren erste ist die exponentielle technologische Entwicklung. So werden die enormen Fortschritte in den letzten und in den kommenden Jahren mit hoher Wahrscheinlichkeit dafür sorgen, dass entsprechend geschulte Software im Jahre 2030 in der Lage sein wird, präzisere Risikoprofile zu erstellen, als dies den menschlichen Kollegen möglich ist.

Hierfür verantwortlich sind die beiden weiteren Säulen, nämlich die Prädiktion und die Adaption. Bei der Prädiktion geht es um die computergestützte Vorhersage der nahen Zukunft. Prognostiziert werden kann praktisch alles, wofür ein ausreichender Datenpool zur Verfügung steht. Durch die ausgefeilte Sensorik, die in vielen technischen Geräten verbaut ist, werden solche Daten in immer größerem Ausmaß produziert. Man denke an das eigene Smartphone: Hier lesen nicht nur Kameralinse und GPS Daten aus ihrer Umwelt, hinzu kommen Sensoren für Helligkeit, Neigung, Beschleunigung, ein Thermometer und ein Kompass, um nur einige zu nennen.

Ihre wahre Bedeutung erhalten die Daten aber erst dann, wenn aus der Prognose die richtigen Folgerungen abgeleitet werden: Dies beschreibt die Adaption. Ein einfaches Beispiel ist der Verkehr. Aufgrund der in Echtzeit übermittelten Fahrzeugdaten können Prognosen über Verkehrssituationen in der nahen Zukunft getroffen werden. Der wesentliche Mehrwert der neuen Technologie besteht nun darin, die prognostizierten Daten zu nutzen, um auf deren Basis situative und individuelle Anpassungen vorzunehmen. Erkennt die Software, dass an einer bestimmten Stelle ein Stau entstehen wird, leitet sie einen Teil der Autofahrer auf eine alternative Route. Würde sie alle Autos umlenken, würde sie den Stau nur verlagern; adaptive Technologie ermöglicht es aber, genau den Anteil der Verkehrsteilnehmer umzulenken, der für eine bestmögliche Entspannung der Gesamtsituation sorgen wird. Eine Entscheidung, deren Komplexität für einen Menschen enorm wäre, für eine entsprechend trainierte KI aber eine einfache Wahrscheinlichkeitsrechnung darstellt.

Ein neues Nachdenken über Solidarität

Für die Versicherungsbranche haben diese Möglichkeiten eine dramatische Bedeutung. Denn abhängig von den Situationen, in denen Menschen sich befinden, sind sie ganz unterschiedlichen Risiken ausgesetzt. Ein Versicherungsprodukt, das diese Risiken situativ und individuell einschätzen kann, unterscheidet sich fundamental von einer traditionellen Versicherung, die im Wesentlichen jene Schäden regulierte, die bereits eingetreten waren. Nun tritt eine ganz neue Möglichkeit auf den Plan: die Prävention. Kaum vorstellbar, welche Bedeutung ein Versicherungsprodukt hätte, das seine Kunden in brenzligen Situationen warnt und sogar Handlungsempfehlungen geben kann, wie man einer potenziellen Gefahr aus dem Weg geht.

Diese Entwicklung hat allerdings nicht nur positive Seiten. So warnen Datenschützer vor den Konsequenzen, die mit der übermäßigen Verwendung personenbezogener Daten einhergehen könnten. Für die Versicherungsbranche steht dabei auch ein bislang konstitutives Merkmal auf der Kippe: Denn der Solidaritätsgedanke der traditionellen Assekuranz spielt bei Versicherungslösungen, die auf Basis individueller Risikoprofile individuelle Tarifierungen errechnen, kaum noch eine Rolle. Wohlverhalten wird schon jetzt von einigen Versicherungsprodukten belohnt; dass im Gegenzug auch Fehlverhalten eines Tages von automatisierten Algorithmen sanktioniert werden könnte, scheint eine logische Weiterführung desselben Prinzips.

Dazu Daniel Domscheit-Berg, ehemaliger Sprecher der Whistleblower-Plattform WikiLeaks: „Wollen wir die Menschen so sehr vermessen in Zukunft, dass die einen sich keine Krankenkasse mehr leisten können und es für die anderen sehr billig wird, weil man sehr konform ist mit den Werten und Normen? Oder ist nicht die Errungenschaft eigentlich auch, dass es diese Art von Solidarität gibt in der Gesellschaft? Das ist eine der Fragen, über die man reden müsste.“

Eine ehrliche Diskussion über die Anwendung der neuen Technologien in der Versicherungswirtschaft muss sich daher auch damit auseinandersetzen, bis zu welchem Grad wir an unserem aktuellen Sozialsystem festhalten wollen oder wie alternative Lösungen aussehen könnten. Noch einmal Domscheit-Berg:
„Ich glaube, wenn wir solche Verhaltensnormen haben und man sofort sanktioniert wird, sobald man sich außerhalb bewegt, dann wird das eine sehr langweilige Gesellschaft, die auch an ihrer Vielfältigkeit verliert. Und das fände ich sehr schade, und ich glaube, das wäre auch sehr gefährlich.“

Kulturwandel ist notwendig

Dennoch ist Domscheit-Berg von den Potenzialen überzeugt, die digitale Datenverarbeitung für die Assekuranz ermöglicht. Es gebe ausreichend personenunabhängige Daten, durch die Mehrwerte generiert werden könnten, ohne die Individualität der Versicherten einzuschränken. Auch Andreas Klug, Vorsitzender des Arbeitskreises „Artificial Intelligence“ des Bitcom e.V., ist sich sicher: „Künstliche Intelligenz ist kein Hype, sondern eine Kerntechnologie der Digitalisierung.“ Die Versicherungsbranche, so Klug, sei bei diesem Thema bereits recht weit fortgeschritten, habe, „in Abgrenzung zu anderen Industrien, die Zeichen der Zeit erkannt.“

Das größte Hemmnis bei der Entwicklung sieht er in einem „Vakuum“ an Mitarbeitern mit dem notwendigen Know-how von der technischen und der operativen Seite von KI: „Ich bin persönlich davon überzeugt, wir werden keine Arbeitsplätze verlieren, im Gegenteil, wir werden einen Transfer von Arbeitsplätzen haben. Wir werden über die große Herausforderung sprechen müssen, wie wir alle mitnehmen, und wie wir Leute, die heute mehrheitlich für Aushilfstätigkeiten verantwortlich sind, vorbilden und weiterbilden.“

Dass in Zukunft präventiv einschreitende Versicherungsprodukte das Leben der Menschen begleiten werden, ist aus heutiger Sicht äußerst wahrscheinlich – wer aber diese Leistungen anbieten wird, kann noch nicht mit Sicherheit gesagt werden. Wenn die heutigen Versicherungsunternehmen diese neue Rolle übernehmen möchten, so Jànszky, muss zunächst ein umfangreicher Wandel von Denkmustern, Geschäftsmodellen und im Umgang mit Daten erfolgen. Die Konkurrenz stellen dabei weniger die anderen Versicherer, sondern eher branchenfremde Unternehmen dar, die im Rahmen ihrer Kompetenzen und Datenpools maßgeschneiderte Versicherungslösungen anbieten könnten.

Jànszkys hat für die Branche daher eine klare Botschaft: Die großen Unternehmen müssen für geschützte Räume sorgen, in denen ohne festgefahrene Strukturen und Altlasten über zukunftsfähige Produkte nachgedacht werden kann. Denn die zu bewältigende Aufgabe ist groß: Für die Assekuranz geht es nicht mehr vorrangig darum, alte Produktklassen zu digitalisieren, sondern ganz neue Leistungen zu erbringen, die genau in die Lebensrealität ihrer Kunden eingepasst sind.

Solche Räume existieren bereits. Ein Beispiel ist das insurHUB Innovation Lab, in dem sich mehrere Versicherungsunternehmen zusammengetan haben, um innovative Ansätze in interdisziplinären Teams zu entwickeln. Das Fundament für eine notwendige Evolution der Versicherungsbranche ist also gelegt. Ob der hierfür nötige Kulturwandel konsequent vollzogen wird oder nicht, das werden wir erst in Jahren sagen können. Doch die Chance ist heute real – und sie sollte genutzt werden.

Mehr zu dem Thema: Basis dieses Artikels sind Interviews mit Sven Gábor Jànszky, Daniel Domscheit-Berg und Andreas Klug, die auf der letzten InnoVario  geführt wurden. Zum Vormerken: Die InnoVario 2019 findet am 19. und 20. November 2019 in Bonn statt. StartingUp ist Medienpartner des Events.


Sie möchten selbst ein Unternehmen gründen oder sich nebenberuflich selbständig machen? Nutzen Sie jetzt Gründerberater.deDort erhalten Sie kostenlos u.a.:

  • Rechtsformen-Analyser zur Überprüfung Ihrer Entscheidung
  • Step-by-Step Anleitung für Ihre Gründung
  • Fördermittel-Sofort-Check passend zu Ihrem Vorhaben

Gaming & digitale Medien – eine Perspektive für Start-ups?

Diese Voraussetzungen sollten Gründerinnen und Gründer von Start-ups in der Gamingbranche oder der Gestaltung digitaler Medien mitbringen, um erfolgreich zu sein.

Digitale Start-ups verbinden attraktive Zukunftsperspektiven mit einem geringen Startkapital. Für die digitale Generation aktueller Schul- und Universitätsabgänger stellt sich die Frage, ob ein Einstieg in die Gamingbranche oder die Gestaltung digitaler Medien für die Gründung eines Start-ups ausreichen kann. Solche Perspektiven sind gegeben, die neben ausreichend Kreativität eine fundierte Ausbildung in Computertechnik und Business gleichermaßen voraussetzen.

Indie-Games – eine Perspektive für Entwickler?

Noch vor einigen Jahren war die Gamingbranche als Perspektive für Gründer eher unattraktiv. Die großen, internationalen Studios dominierten die Szene, wobei für Triple-A-Titel längst Tausende von Entwicklern an unterschiedlichen Standorten benötigt wurden. Unter dem Zeit- und Kostengrund vieler Studios sowie der Entlassungswelle der letzten Jahre ist es für immer mehr Developer uninteressant, auf die Anstellung in einem der großen Softwarehäuser zu hoffen.

Die unabhängige Entwicklung von digitalen Medien oder Spielen bleibt jedoch beliebt und kann zur Basis eines Start-ups werden. Immer mehr Gamer wenden sich von den überteuerten, großen Marken der Szene ab und vertrauen auf kleinere Entwickler mit mehr Freiheiten bei der Umsetzung. Selbst die großen Gaming-Plattformen halten regelmäßig eine Auswahl beliebter und neuer Indie-Games für Millionen Nutzer bereit.

Unabhängig von Größe und Art eines Studios bleibt die Gamingbranche international und setzt verschiedene Skills vom Development bis zum erfolgreichen Marketing voraus. Dies alles lässt sich längst in speziell abgestimmten Studiengängen erlernen.

Spielentwicklung der neuesten Generation als Studiengang

Studiengänge wie Games & Immersive Media an der Hochschule Furtwangen erlauben es, einen Bachelor im Gaming-Umfeld zu erlangen und alle relevanten Fähigkeiten für den zukünftigen Berufsweg zu gewinnen. Neben Computer Science und Anwendungen im spielerischen Bereich nehmen Business, Design und Medien als zweiter Bereich einen wesentlichen Stellenwert im Studium ein.

Diese Kombination des bilingualen Studiengangs ergibt Sinn. Schließlich ist nicht jeder kreative Programmierer und Spieleentwickler ein Geschäftsmann, genauso wenig wie Marketer gerne stundenlang mit Quellcode arbeiten. Moderne Studiengänge wie dieser führen beide Welten zusammen und sorgen für eine fundierte Ausbildung, um tiefe Einblicke in beide relevanten Arbeitsfelder zu gewinnen.

Starke Unterstützung für zukünftige Start-ups

Die Hochschule Furtwangen geht mit ihrer Unterstützung weit über den reinen Studiengang hinaus. Bewusst wird angehenden Start-ups unter die Arme gegriffen, die ihre ersten Schritte ins Gaming-Business mit kreativen Spielen und Studienprojekten gehen möchten.

Neben einer umfassenden Beratung auf dem Weg zum eigenen Business werden ein Support für Fördermittel sowie Räumlichkeiten für das gemeinschaftliche Arbeiten an Spielen oder digitalen Medien geboten. Viele Formalitäten und Unsicherheiten, die sich bei Start-ups unabhängig von Branche und Geschäftsfeld ergeben, werden so seitens der Hochschule kompetent und professionell unterstützt.

Für den Einstieg sind Kenntnisse im Gaming-Bereich ideal, die über die reine „Freude am Zocken“ hinausgehen. Kreativität in der Planung und Umsetzung eigener Projekte sollte nachgewiesen werden – anders als die zwingende Notwendigkeit, eine Programmiersprache zu beherrschen.

Sichtbarkeit im digitalen Umfeld entscheidend

Wie bei allen Produkten entscheidet weniger die tatsächliche Qualität, sondern die Sichtbarkeit und eine wirkungsvolle Werbung über Erfolg von Misserfolg von Games. Gerade das Marketing für digitale Produkte ist wegen der hohen Konkurrenz und einer Fülle an Informationen in der digitalen Welt eine immense Herausforderung. Hier eine fachkundige Unterstützung von Anfang an zu erhalten, bewahrt Entwickler und kreative Köpfe davor, grundlegende Fehler zu begehen und frühzeitig den Traum vom Gaming-Job zu begraben.

KI-Modelle erfolgreich im Unternehmen einführen

Worauf es bei der Implementierung von KI wirklich ankommt.

Künstliche Intelligenz (KI) gewinnt in Unternehmen zunehmend an Bedeutung. Sie kann Prozesse beschleunigen, große Datenmengen sinnvoll nutzbar machen und Entscheidungen unterstützen. Doch in der Praxis zeigt sich: Moderne Technologie allein führt noch nicht zum Erfolg. Entscheidend ist ein strukturiertes Vorgehen, bei dem Ziele klar definiert, Daten sorgfältig vorbereitet und organisatorische Rahmenbedingungen von Beginn an berücksichtigt werden. „Viele KI-Initiativen scheitern daran, dass am Anfang die Orientierung fehlt“, sagt Benedikt Weber, Geschäftsführer der applord GmbH. „Struktur schafft Entscheidungsfähigkeit – noch bevor über konkrete KI-Modelle gesprochen wird.“

Organisatorischer Wandel und Einbindung der Mitarbeitenden

Der Einsatz von KI verändert Arbeitsabläufe, Verantwortlichkeiten und Entscheidungswege. Mitarbeitende arbeiten verstärkt mit automatisierten Systemen zusammen, Aufgaben verschieben sich, Rollen entwickeln sich weiter. Wird dieser Wandel nicht aktiv begleitet, entstehen Unsicherheiten oder Ablehnung gegenüber neuen Technologien. Erfolgreiche Unternehmen setzen deshalb auf transparente Kommunikation und frühzeitige Einbindung der Mitarbeitenden. Sie erklären, warum KI eingesetzt wird, welche Aufgaben sie übernimmt und wo menschliche Expertise weiterhin unverzichtbar bleibt. Fehlt dieses gemeinsame Verständnis, werden neue Systeme häufig nur eingeschränkt genutzt. „KI-Projekte scheitern selten an der Technologie“, betont Weber. „Viel häufiger fehlt ein klares Bild davon, welchen konkreten Nutzen KI für Mitarbeitende und Organisation wirklich bringt.“

Auswahl der passenden KI-Lösung

Das Angebot an KI-Lösungen wächst rasant. Für Unternehmen besteht die Herausforderung darin, nicht der technischen Vielfalt zu folgen, sondern eine Lösung zu wählen, die zum eigenen Geschäftsprozess passt. Der Ausgangspunkt sollte immer ein klar definierter Anwendungsfall sein: Welche Aufgabe soll KI konkret unterstützen oder verbessern? Neben den Funktionen spielen auch Fragen der Nachvollziehbarkeit, Integration in bestehende Systeme und regulatorische Anforderungen eine Rolle. Werden diese Aspekte zu spät berücksichtigt, entstehen Lösungen, die technisch leistungsfähig sind, im Alltag aber keinen Mehrwert liefern. „Viele Unternehmen wählen KI nach dem Funktionsumfang aus und stellen später fest, dass sie nicht zum eigenen Prozess passt“, erklärt Weber. „Erfolgreich ist KI dann, wenn sie Abläufe sinnvoll ergänzt und verständliche Ergebnisse liefert.“

Datenqualität als Grundlage für verlässliche Ergebnisse

KI-Modelle sind vollständig von der Qualität ihrer Daten abhängig. In vielen Unternehmen existieren relevante Informationen zwar, sie sind jedoch über verschiedene Systeme verteilt, unterschiedlich gepflegt oder historisch gewachsen. Diese Ausgangslage erschwert nicht nur den Einsatz von KI, sondern kann zu fehlerhaften oder schwer nachvollziehbaren Ergebnissen führen. Datenmanagement ist daher keine einmalige Vorarbeit, sondern eine kontinuierliche Aufgabe. Dazu gehören klare Zuständigkeiten, regelmäßige Prüfungen und eine strukturierte Aufbereitung der Daten. „Der Aufwand für Datenqualität wird häufig unterschätzt“, sagt Weber. „Ohne geprüfte und konsistente Daten lassen sich keine stabilen und verlässlichen KI-Ergebnisse erzielen – unabhängig davon, wie gut das Modell ist.“

Schrittweise Einführung statt großer Umbruch

Statt KI sofort unternehmensweit einzusetzen, empfiehlt sich ein schrittweises Vorgehen. Unternehmen können so mit klar abgegrenzten Anwendungsfällen beginnen, Lösungen im Alltag testen und die Ergebnisse anhand messbarer Kriterien, wie Benutzerfreundlichkeit oder verständlicher Anleitungen, bewerten. So lassen sich Risiken reduzieren und Erkenntnisse gezielt nutzen. Pilotprojekte liefern nicht nur technische Erkenntnisse, sondern zeigen auch, wie gut KI im Arbeitsalltag akzeptiert wird. Auf dieser Basis lässt sich entscheiden, welche Lösungen ausgebaut werden sollten. „Unternehmen, die mit überschaubaren Anwendungsfällen starten, treffen langfristig fundiertere Entscheidungen“, so Weber. „Praxiserfahrungen sind dabei deutlich wertvoller als theoretische Annahmen.“

KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar

Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.

Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.

Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?

Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.

Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.

Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.

Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.

Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.

Schnelles Wachstum kann zu einem Überschuss führen

Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.

Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.

Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.

KI-Agenten als Transformationstreiber 2026

Eine aktuelle DeepL-Studie zeigt: 69 % der globalen Führungskräfte erwarten für 2026 tiefgreifende Veränderungen durch KI-Agenten; KI-Sprachtechnologie wird zur unverzichtbaren Infrastruktur.

Eine neue Studie von DeepL, einem globalen Unternehmen für KIProdukte und Forschung, zeigt: 2026 wird für viele Organisationen den Übergang vom Experimentieren mit KI hin zu agentischer Automatisierung markieren. So erwartet die Mehrheit der weltweit befragten Führungskräfte (69 %), dass agentenbasierte KI ihre Geschäftsabläufe im kommenden Jahr deutlich verändern wird.

Die Studie wurde im September 2025 von Censuswide im Auftrag von DeepL durchgeführt. Befragt wurden 5.000 Führungskräfte in Deutschland, Frankreich, den USA, Großbritannien und Japan. Die Ergebnisse deuten darauf hin, dass Unternehmen verstärkt planen, autonome KI-Agenten im großen Umfang einzusetzen – etwa zur Unterstützung von Wissensarbeit, zur Ezienzsteigerung oder zur Anpassung organisatorischer Strukturen. Damit zeichnet sich die bedeutendste operative Veränderung in der Wirtschaft seit der Einführung der Cloud an.

„KI-Agenten sind längst nicht mehr experimentell, sie sind unumgänglich.“ sagt Jarek Kutylowski, CEO und Gründer von DeepL. „Die nächste Phase besteht darin, sie tiefgreifend in unsere Arbeitsweisen zu integrieren. In 2026 werden KI-Agenten das mühsame Umschalten zwischen verschiedenen Kontexten und repetitive Aufgaben übernehmen, sodass sich Menschen auf das konzentrieren können, was Unternehmen tatsächlich voranbringt.“

KI-Agenten werden zum nächsten Disruptor für Unternehmen

Nach ersten Pilot- und Anwendungsfällen rücken KI-Agenten zunehmend in den produktiven Einsatz:

  • Fast die Hälfte der globalen Führungskräfte (44 %) erwartet für 2026 einen tiefgreifenden Wandel durch agentische KI; ein Viertel (25 %) sieht diesen Wandel bereits heute. Nur 7 % glauben, dass KI-Agenten ihre Betriebsabläufe nicht verändern werden, was die hohe Geschwindigkeit der Implementierungen unterstreicht.
  • Als die drei wichtigsten Voraussetzungen für den sinnvollen und vertrauenswürdigen Einsatz von KI-Agenten nennen die Befragten nachweisbare Ezienz- und ROI-Eekte (22 %), Anpassungsfähigkeit der Belegschaft (18 %) und zunehmende organisatorische Bereitschaft (18 %).
  • Als wesentliche Herausforderungen bei der Einführung von KI-Agenten nennen die Befragten Kosten (16 %), Bereitschaft der Belegschaft (13 %) und Reife der Technologie (12 %).

KI als zentraler Wachstumstreiber für globale Unternehmen

Über Agenten hinaus gilt KI insgesamt als wichtigster Motor für das Wirtschaftswachstum in 2026:

  • Über zwei Drittel (67 %) der Befragten geben an, dass sich der ROI ihrer KI-Initiativen in diesem Jahr erhöht hat; mehr als die Hälfte (52 %) erwartet, dass KI im kommenden Jahr mehr zum Unternehmenswachstum beitragen wird als jede andere Technologie.
  • Wenn es um messbare Verbesserungen durch KI geht, liegt Deutschland (78 %) zusammen mit Großbritannien (80 %) an der Spitze, gefolgt von den USA (71 %) und Frankreich (70 %). Japan verzeichnet mit 35 % deutlich niedrigere Werte, was auf langsamere Implementierungen und Bereitschaften hindeutet.
  • Über die Hälfte der globalen Führungskräfte (51 %) rechnet damit, dass KI im kommenden Jahr mehr neue Rollen schat als ersetzt. 52 % geben an, dass KI-Kenntnisse für die meisten Neueinstellungen vorausgesetzt werden.

KI-Sprachtechnologie entwickelt sich vom Werkzeug zur zentralen Infrastruktur

Die Studie zeigt zudem, wie KI-Sprachtechnologie zur entscheidenden Komponente der Unternehmensinfrastruktur wird:

  • Fast zwei Drittel der globalen Unternehmen (64 %) planen 2026 steigende Investitionen in KI-Sprachtechnologie – angeführt von Großbritannien (76 %) und Deutschland (74 %), gefolgt von den USA (67 %) und Frankreich (65 %) werden mehrsprachige Kommunikation und Inhalte zu zentralen Faktoren für globales Wachstum. Im Gegensatz dazu bleibt Japan (38 %) vergleichsweise konservativ, was auf eine langsamere Dynamik hindeutet, gleichzeitig aber das wachsende Interesse von mehr als einem Drittel der Führungskräfte widerspiegelt.

In diesem Zusammenhang wird Echtzeit-Sprachübersetzung 2026 unverzichtbar:

  • Über die Hälfte der globalen Führungskräfte (54 %) sieht Echtzeit-Sprachübersetzung im kommenden Jahr als unverzichtbar an – derzeit sind es ein Drittel (32 %).
  • Großbritannien (48 %) und Frankreich (33 %) sind Vorreiter bei der Nutzung von Tools für die Echtzeit-Sprachübersetzung; Japan liegt derzeit nur bei 11 %.
  • Die Nachfrage wird angetrieben von technologischen Fortschritten in der Echtzeit-Sprachübersetzung (46 %), Kundenerwartungen (40 %) und marktübergreifender Expansion (38 %).

Die Erkenntnisse der Studie liefern wichtige Einblicke in die Zukunft der KI und zeigen, wie diese Veränderungen Branchen umgestalten, Kundenerwartungen neu definieren und sich auf das Wettbewerbsumfeld auswirken.

GreenTech – der Boom geht zu Ende

Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.

Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.

Der Boom geht zu Ende

„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze.  „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“

Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich.  Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“

Herausforderungen im deutschen GreenTech-Sektor

Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte.  Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“

Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit

„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“

Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“

Politik und Wirtschaft in gemeinsamer Verantwortung

Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“

Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.

HR-Trends 2026

Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.

Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.

Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.

1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise

Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.

2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?

Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360GradFeedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.

3. Mensch und KI – zwei Seiten der HR-Medaille

2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.

4. Führung neu denken – Managementpositionen verlieren an Attraktivität

Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.

5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt

Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.

Fazit

Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.

Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Weckruf für (KI-)Start-ups

Zwischen Pflicht und Potenzial: Warum der EU AI Act kein Stolperstein, sondern ein strategischer Hebel ist und wie junge Unternehmen ihn frühzeitig für sich nutzen können.

Spätestens seit der Verabschiedung des AI Acts der Europäischen Union im Jahr 2024 ist klar: Der Einsatz künstlicher Intelligenz (KI) in Europa wird rechtlich geregelt – verbindlich, umfassend und risikobasiert. Für viele Unternehmen, vor allem im Start-up-Umfeld, bedeutet das erst einmal: neue Vorgaben, viel Bürokratie, hoher Aufwand. Doch dieser Eindruck greift zu kurz. Denn der AI Act ist weit mehr als ein Regelwerk zur Risikominimierung; er bietet jungen Unternehmen die Chance, Ethik, Effizienz und Rechtssicherheit von Anfang an in Einklang zu bringen. Wer ihn strategisch klug nutzt, kann sich nicht nur vor teuren Fehlern schützen, sondern auch produktiver, innovativer und vertrauenswürdiger aufstellen.

Ein Weckruf mit Wachstumspotenzial

Der AI Act ist die erste umfassende gesetzliche Regelung weltweit, die den Umgang mit KI verbindlich definiert. Ziel ist es, Vertrauen in KI-Technologien zu schaffen, Risiken wie Diskriminierung oder Manipulation zu minimieren und gleichzeitig die Innovationskraft Europas zu sichern. Je nach Risikoklasse, von minimal über hoch bis unvertretbar, gelten unterschied­liche Anforderungen an Transparenz, Sicherheit und Kontrolle. Was viele dabei übersehen: Der AI Act richtet sich nicht nur an Entwickler*innen, sondern auch an Anwender*innen. Schon wer KI zur automatisierten Lebenslaufanalyse, zur Lead-Bewertung im Vertrieb oder für interne Personalentscheidungen nutzt, kann als Betreiber*in haftbar sein – inklusive Dokumentations- und Prüfpflichten. Seit Februar 2025 gilt zudem eine allgemeine Schulungspflicht für KI-Nutzung, unabhängig von Branche oder Unternehmensgröße.

Start-ups: (Noch) nicht betroffen? Ein Trugschluss

Gerade junge Unternehmen neigen dazu, gesetzliche Regularien auf die lange Bank zu schieben – oft verständlich, wenn Zeit, Geld und personelle Ressourcen knapp sind. Doch genau hier liegt das Risiko: Laut einer Bitkom-Studie haben sich nur rund 3 Prozent der Unternehmen intensiv mit dem AI Act beschäftigt. 25 Prozent wissen gar nichts davon. Ein gefähr­licher Blindflug, nicht nur wegen potenzieller Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des Jahresumsatzes, sondern weil damit auch Chancen verschenkt werden.

Dabei geht es beim AI Act nicht nur um Pflichterfüllung, sondern um Zukunftsfähigkeit. Wer KI nutzt, sei es für Marketing, Kund*innenservice oder Produktentwicklung, muss ihre Auswirkungen verstehen, Risiken identifizieren und Prozesse so gestalten, dass sie nachvollziehbar, fair und sicher bleiben. Für Start-ups, die langfristig skalieren und wachsen wollen, ist das kein Nice-to-have, sondern ein Muss.

Wissensdefizite als Wachstumsbremse

Aktuell setzen nur etwa 17 Prozent der kleinen und mittleren Unternehmen in Deutschland KI im Geschäftsalltag ein. Die Gründe: Über 70 Prozent nennen fehlendes Wissen, 58 Prozent Unsicherheit bei rechtlichen Fragen. Gerade bei Start-ups, deren Geschäftsmodell oft auf digitalen Lösungen basiert, ist diese Zurückhaltung alarmierend. Denn wer das Potenzial von KI nicht erkennt oder falsch einsetzt, verliert nicht nur Zeit, sondern auch Marktchancen. Dazu kommt noch die Sorge vor zukünftigen rechtlichen Einschränkungen, wie 82 Prozent der Anwender*innen generativer KI angeben, 73 Prozent verweisen auf die Datenschutzanforderungen als Hemmnis und 68 Prozent sehen Unsicherheiten durch rechtliche Unklarheiten.

Der Schlüssel liegt ganz klar in der Weiterbildung: Nur wer die Funktionsweise, Stärken und Grenzen von KI-Systemen versteht, kann sie verantwortungsvoll und effizient nutzen. Das beginnt schon bei der bloßen Auseinandersetzung mit dem AI Act: 69 Prozent der Unternehmen brauchen professionelle Hilfe dabei. Das betrifft nicht nur Entwickler*innen oder Tech-Teams, sondern auch Gründer*innen sowie Verantwortliche in Marketing, HR und Customer Support. Der AI Act kann dabei als Orientierung dienen: Er macht transparent, welche Prozesse es zu beachten gilt und wie sich Risiken frühzeitig erkennen und adressieren lassen.

KI im Marketing: Vom Tool zur Strategie

Beispiel: Im Marketing ist KI längst mehr als nur eine Helferin für Textgenerierung oder A/B-Testing. Sie analysiert Zielgruppen, erkennt Kaufmuster, generiert kreative Inhalte und liefert datenbasierte Insights in Echtzeit. Doch viele Marketingverantwortliche gehen mit KI noch zu leichtfertig um oder unterschätzen ihre strategische Wirkung. In modernen Marketingabteilungen dient KI als Beschleuniger, Effizienzmotor und kreativer Sparringspartner.

Doch um diesen Nutzen voll auszuschöpfen, braucht es klare Regeln, Datenqualität und nachvollziehbare Prozesse – genau das, was der AI Act einfordert. Was auf den ersten Blick wie ein regulatorisches Korsett wirkt, ist in Wahrheit ein Innova­tionstreiber: Wer frühzeitig in qualitätsgesicherte Datenprozesse, Modellvalidierung und Feedbackschleifen investiert, steigert nicht nur die Rechtssicherheit, sondern auch die Performance seiner Kampagnen.

Ethik als Wettbewerbsfaktor

Neben Effizienz und Legalität spielt auch Ethik eine zunehmend wichtige Rolle. Nutzer*innen und Kund*innen erwarten von Unternehmen, dass sie KI fair, transparent und verantwortungsvoll einsetzen. Diskriminierende Algorithmen, intransparente Entscheidungen oder Datenmissbrauch können nicht nur rechtliche Konsequenzen haben, sie beschädigen auch das Vertrauen in die Marke. Gerade Start-ups haben hier einen Vorteil: Sie können ethische Leitlinien von Anfang an mitdenken und in ihre Unternehmenskultur integrieren. Das schafft nicht nur Glaubwürdigkeit gegenüber Kund*innen, Investor*innen und Partner*innen – es spart auch spätere Reputationskosten. Studien zeigen: Unternehmen, die KI ethisch reflektiert einsetzen, erzielen höhere Zufriedenheitswerte bei Mitarbeitenden und Kundschaft, und sie sind resilienter gegenüber technologischen Risiken.

Von Anfang an strategisch denken

Für Gründer*innen und junge Unternehmen lautet die Empfehlung daher: Nicht warten, bis der AI Act zum Problem wird, sondern ihn frühzeitig als Chance nutzen, sich professionell aufzustellen. Das bedeutet konkret:

  • Verantwortlichkeiten klären: Wer ist im Unternehmen für KI verantwortlich – technisch, ethisch, rechtlich?
  • Transparente Prozesse etablieren: Wie werden Daten erhoben, verarbeitet und genutzt? Wer prüft Algorithmen auf Verzerrungen?
  • Schulungen anbieten: Alle, die mit KI-Systemen arbeiten, sollten deren Funktionsweise und rechtliche Implikationen kennen.
  • Ethikrichtlinien entwickeln: Wie kann das Unternehmen sicherstellen, dass KI fair, sicher und inklusiv eingesetzt wird?
  • Technologische Standards einhalten: Wer dokumentiert und validiert die eingesetzten Systeme regelmäßig?

Kein Bremsklotz, sondern ein Beschleuniger

Der EU AI Act ist ein Weckruf für Start-ups, die KI nutzen oder dies künftig wollen. Er schafft Klarheit, wo zuvor Unsicherheit herrschte, und definiert Standards, an denen sich junge Unternehmen orientieren können. Wer das ignoriert, riskiert nicht nur Bußgelder, sondern auch seine Wettbewerbsfähigkeit. Wer ihn jedoch proaktiv angeht, positioniert sich als verantwortungsvolle(r) Innovator*in. Der Wandel hat längst be­- gonnen. Jetzt ist die Zeit, ihn bewusst mitzugestalten.

Der Autor Bastian Sens ist Marketing-Experte und Gründer der Beratung & Academy Sensational GmbH

eleQtron: It's MAGIC

In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.

Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“

Es war ein ungewöhnlicher Ort für eine bahnbrechende

Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.

Von der Universität ...

Im Jahr 2020, als das globale Interesse an Quantentechnolo­gien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.

Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quanten­programme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.

In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.

... zum technologischen Durchbruch

Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer so­genannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikro­wellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“

Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.

Wachstumsschub und strategische Entwicklung

2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.

„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.

EU KI-Gesetz wird scharf gestellt

Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.

Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.

Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:

  • Strafmaßnahmen bei Nichteinhaltung
  • Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
  • Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene

Strafen bis zu 35 Millionen Euro

Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.

Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen

GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.

GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.

Aufsicht und Governance

Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.

Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.

Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.

Was bedeutet das für Personalabteilungen und Arbeitnehmende?

Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.

  • Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
  • Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
  • Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
  • Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.

Fazit

Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.

Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.

EU AI Act: Status quo

Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.

Überblick: Der AI Act

Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten Hochrisiko­Systeme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.

Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.

Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.

Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.

Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.

Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produkt­regulierung und Marktüberwachung.

Was fehlt? Guidance und Governance

Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.

Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.

Und wo steht Deutschland?

Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.

Reallabore

Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.

Reaktionen

Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.

Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschied­liche Informationen und Compliance-Nachweise verfügbar sind.

Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.

Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.

Fazit

Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.

Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Her­ausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.

Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München

Humanoide Roboter: Vision und Realität

Der Weltroboterverband IFR veröffentlicht sein Positionspapier zu Trends, Chancen und möglichen Grenzen rund um das Thema humanoide Roboter.

Menschenähnliche Roboter gelten als die nächste große Innovation in der Robotik: Der weltweit größte Markt für Industrieroboter, China, hat bereits konkrete Pläne für die Massenproduktion von Humanoiden festgelegt. Gleichzeitig kündigten Technologieunternehmen in den USA und Europa große Investitionsvorhaben in diesem Bereich an. Die Vision ist, Allzweckroboter zu entwickeln, die auf menschlicher Mechanik basieren. Einblicke in Trends, Chancen und mögliche Grenzen humanoider Roboter bietet das neue Positionspapier der International Federation of Robotics.

„Futuristisch anmutende humanoide Roboter, die in unserem Zuhause, in Unternehmen und in der Öffentlichkeit arbeiten, faszinieren die Menschen“, sagt Takayuki Ito, Präsident der International Federation of Robotics. „Da die Welt in der wir leben auf den menschlichen Körper zugeschnitten ist, liegt die Idee eines schnellen, universellen Helfers in der Produktion und bei Dienstleistungen auf der Hand. Ob und wann es aber zu einer massenhaften Nutzung von Humanoiden kommen wird, bleibt ungewiss. Nicht zu erwarten ist jedenfalls, dass Humanoide in Zukunft die derzeit auf dem Markt befindlichen Robotertypen ersetzen. Stattdessen werden sie bestehende Technologien ergänzen und erweitern.“

Einsatz von Humanoiden in den Regionen

In den Vereinigten Staaten arbeiten Tech-Unternehmen wie NVIDIA, Amazon und Tesla intensiv an KI- und Robotertechnologien. Neben der Finanzierung durch das Militär wird diese Entwicklung auch durch zahlreiche private Investitionen unterstützt. Das führt zu einer bedeutenden Start-up-Szene, die sich auf humanoide Roboter spezialisiert. Besonders groß ist das Interesse an Humanoiden in Branchen wie der Logistik und in der Fertigung. Dabei werden humanoide Roboter weniger als soziale Begleiter gesehen, sondern eher als Werkzeuge, die dabei helfen, Produktivität und Effizienz zu steigern. So liegt der Schwerpunkt verstärkt auf praktischen Anwendungen und weniger auf der Integration von Robotern in das tägliche soziale Leben.

In China nehmen die Humanoiden eine zentrale Stellung in der nationalen Robotik-Strategie ein. Die Regierung möchte in diesem Technologiebereich Kompetenz und globale Wettbewerbsfähigkeit unter Beweis stellen. Der Einsatzschwerpunkt liegt dabei im Dienstleistungssektor, beispielsweise für die Kundenbetreuung. Die Automatisierung von Produktionslinien in der Fertigung und der Einsatz von Humanoiden, um weniger von menschlichen Arbeitskräften abhängig zu sein, scheint nur auf zweiter Ebene wichtig zu sein. Kernelement der chinesischen Strategie ist der Aufbau einer skalierbaren Lieferkette für Schlüsselkomponenten.

Japan ist ein Pionier in der Entwicklung humanoider Roboter. Als frühes Beispiel wurde Hondas Asimo bereits im Oktober 2000 vorgestellt. Roboter werden in Japan eher als Gefährten, denn als bloße Werkzeuge gesehen. Humanoide Roboter wie Pepper und Palro sind demzufolge in erster Linie als Sozialroboter konzipiert und kommen in Bildungseinrichtungen, Geschäften und Altenpflegeeinrichtungen zum Einsatz. Diese Ausrichtung spiegelt die Nachfrage einer alternden Gesellschaft wider, mit der Japan konfrontiert ist. Ein wichtiger Schwerpunkt der Projekte liegt auf Robotern, die harmonisch mit Menschen zusammenleben können und als Teil der Gesellschaft akzeptiert sind. Führende Unternehmen wie Kawasaki entwickeln humanoide Roboter als eine Forschungsplattform.

In Europa wird auf die ethischen Implikationen von Robotik und KI besonderes viel Wert gelegt. Im Fokus stehen kollaborative Roboter, die im industriellen Umfeld mit Menschen zusammenarbeiten. Kernthemen sind die Verbesserung der Sicherheit und Effizienz und die Nachahmung menschlicher Fähigkeiten. Die Arbeitskraft von Menschen zu kompensieren, steht dagegen nicht im Fokus. Der Schwerpunkt liegt vielmehr auf einem menschenzentrierten Design und den sozialen und gesellschaftlichen Auswirkungen von Robotern. Die europäischen Unternehmen stehen dem Einsatz von Humanoiden generell eher zurückhaltend gegenüber, wenn es um die kurz- bis mittelfristigen Automatisierungsaufgaben im Fertigungs- und Dienstleistungssektor geht.

+++ Ein bahnbrechendes Robotik Start-up aus Deutschland ist NEURA-Robotics: Hier geht’s zu unserer Gründerstory von NEURA Robotics +++

Ausblick

Dank ihrer menschenähnlichen Geschicklichkeit und Anpassungsfähigkeit sind die Humanoiden prädestiniert, komplexe Aufgaben zu automatisieren, mit denen heutige Roboter durch herkömmliche Programmiermethoden Schwierigkeiten haben. Einen massenhaften Einsatz als universelle Haushaltshelfer dürfte es jedoch kurz- bis mittelfristig nicht geben.

Das POSITION PAPER Humanoid Robots - Vision and Reality von IFR gibt's hier zum freien Download

Food-Innovation-Report

Wie Food-Start-up-Gründer*innen im herausfordernden Lebensmittelmarkt erfolgreich durchstarten und worauf Investor*innen besonders achten.

Food-Start-ups haben in den vergangenen Jahren einen bemerkenswerten Aufschwung erlebt. Der zunehmende Wunsch nach nachhaltiger, gesunder und funktionaler Ernährung, das wachsende Bewusstsein für Klima- und Umweltschutz sowie der Trend zur Individualisierung der Ernährung haben eine neue Gründungswelle ausgelöst. Dennoch: Der Markteintritt im deutschen Lebensmittelmarkt zählt zu den anspruchsvollsten Herausforderungen, denen sich Gründer*innen stellen können. Wer als Start-up nicht durch außergewöhnliche Innovation oder gezielte Nischenstrategie punktet, hat kaum eine Chance, hier gelistet zu werden.

Ohne klare Zielgruppenfokussierung, glaubwürdiges Produktversprechen und professionelle Umsetzung funktionieren auch gute Ideen nicht – wie es u.a. die Frosta-Tochter elbdeli (trotz starker Marke keine Resonanz) und Bonaverde (Kaffeemaschine mit Röstfunktion, die trotz Kickstarter-Erfolg) scheiterte zeigen.

Da dieser Markt so groß ist, ist er auch stark reguliert, hochkonkurrenzfähig und von mächtigen Einzelhandelsstruk­turen dominiert. Zu den größten Hürden zählen die komplexe Regulatorik, Logistik und Produktion, Finanzierung sowie die Konsument*innenakzeptanz.

Laut dem Deutschen Startup Monitor nennen 43 Prozent aller Start-ups die Finanzierung als größte Hürde. Kapitalbedarf entsteht früh – für Verpackungen, Lebensmittelsicherheit, Produktion, Mindestabnahmemengen und Vertrieb.

Ein typisches Seed-Investment liegt zwischen 250.000 und 1,5 Millionen Euro. In späteren Phasen steigen institutionelle VCs mit Ticketgrößen von bis zu fünf Millionen Euro ein. Erfolgreiche Exits wie der Verkauf von yfood an Nestlé (2023) zeigen: Der Markt ist in Bewegung, aber selektiv.

Functional Food als Innovationsmotor – aber nicht der einzige

Functional Food ist längst mehr als ein Trend: Es ist ein wachsendes Segment mit wissenschaftlicher Fundierung. Produkte wie funktionale Riegel, Drinks oder Functional Coffee verbinden Geschmack mit gesundheitlichem Mehrwert. Besonders gefragt sind derzeit Inhaltsstoffe wie Adaptogene, Pro- und Präbiotika, pflanzliche Proteine und weitere Mikronährstoffe.

Zugleich gewinnen auch alternative Proteinquellen (Pilze, Algen, Fermentation), klimapositive Lebensmittel und Zero-­Waste-Konzepte an Bedeutung. Konsument*innen wollen Ernährung, die nachhaltig und leistungsfördernd ist.

Worauf Investor*innen achten – und was sie abschreckt

Aus Sicht eines/einer Investor*in zählen nicht nur Produkt­idee und Branding. Entscheidender ist:

  • Ist das Team umsetzungsstark, resilient, multidisziplinär?
  • Gibt es Traktion (z.B. Verkaufszahlen, Feedback, D2C-Erfolge)?
  • Wie realistisch ist der Finanzplan? Sind Margen und Logistik durchdacht?
  • Ist das Produkt skalierbar – auch international?

Abschreckend wirken hingegen: überschätzte Umsatzpro­gnosen, fehlende Markteinblicke, instabile Lieferketten oder reine Marketingblasen ohne echte Substanz.

Es ist unschwer zu erkennen: Wer im Food-Bereich gründen will, braucht mehr als eine gute Idee. Der deutsche Markt ist selektiv, komplex und durch hohe Einstiegshürden geprägt. Gleichzeitig ist er enorm spannend für alle, die bereit sind, langfristig zu denken, regulatorisch sauber zu arbeiten und echten Mehrwert zu schaffen.

Food-Start-ups, die ihre Zielgruppe kennen, finanziell solide aufgestellt sind und wissenschaftlich fundierte Produkte entwickeln, haben reale Chancen auf Marktdurchdringung – besonders, wenn sie es schaffen, Handelspartner*innen und Konsument*innen gleichermaßen zu überzeugen.

Investor*innen sind bereit, in solche Konzepte zu investieren, aber sie erwarten mehr als Visionen: Sie erwarten belastbare, integrierte Geschäftsmodelle mit echtem Impact.

Internationaler Vergleich: Was Food-Start-ups in den USA anders machen

Die USA gelten als Vorreiter für Food-Innovation. Der Markt ist schneller, risikofreudiger und deutlich kapitalintensiver. Allein im Jahr 2023 flossen in den USA rund 30 Milliarden US-Dollar Wagniskapital in FoodTech und AgriFood-Start-ups – ein Vielfaches im Vergleich zu Deutschland. Start-ups wie Beyond Meat, Impossible Foods oder Perfect Day konnten in kurzer Zeit hunderte Millionen Dollar einsammeln, skalieren und international expandieren. Die wesentlichen Unterschiede zur deutschen Szene sind:

  • Zugang zu Kapital: Amerikanische Gründer*innen profitieren von einer ausgeprägten Investor*innenlandschaft mit spezialisierten VCs, Family Offices und Corporate Funds. In Deutschland dominiert oft konservative Zurückhaltung.
  • Marktzugang: Der US-Markt ist dezentraler organisiert. Start-ups können regional Fuß fassen und wachsen, ohne gleich auf landesweite Listungen angewiesen zu sein.
  • Regulatorik: Die U.S. Food and Drug Administration (FDA) ist in vielen Bereichen offener gegenüber neuen Inhaltsstoffen und Health Claims – das ermöglicht schnellere Markteinführungen.
  • Kultur & Narrative: Amerikanische Konsument*innen sind innovationsfreudiger. Sie schätzen Storytelling, Vision und Purpose deutlich mehr als europäische Kund*innen.

Das bedeutet nicht, dass der US-Markt einfacher ist. Er ist aber zugänglicher für disruptive Ideen, insbesondere wenn sie skalierbar und investor*innentauglich aufgesetzt sind.

Operative Herausforderungen: vom Prototyp zur Produktion

Die operative Skalierung ist einer der größten Stolpersteine für Food-Start-ups. Eine Rezeptur im Labormaßstab oder im Handwerk zu entwickeln, ist vergleichsweise einfach. Sie jedoch für den industriellen Maßstab zu adaptieren, bringt komplexe Fragestellungen mit sich:

  • Wo finde ich einen Co-Packer mit Kapazitäten für Kleinserien?
  • Wie skaliert mein Produkt ohne Qualitätsverlust?
  • Wie optimiere ich Haltbarkeit ohne künstliche Zusätze?
  • Welche Verpackung schützt das Produkt, erfüllt die Nachhaltigkeitsansprüche und passt zu den Preisvorgaben des Handels?

In Deutschland ist die Infrastruktur für Food-Start-ups im Vergleich zu den USA oder den Niederlanden unterentwickelt. Während es in den USA Inkubatoren mit angeschlossenen Produktionsstätten (z.B. The Hatchery in Chicago oder Pilotworks in New York) gibt, fehlt es hierzulande oft an bezahl­baren, flexiblen Produktionslösungen.

Gerade nachhaltige Verpackungen stellen viele Gründer*­innen vor Probleme: Biologisch abbaubare Alternativen sind teuer, nicht immer kompatibel mit Logistikprozessen und oft nicht lagerstabil genug. Ein Spagat, der Investitionen und viel Know-how erfordert.

Erfolgsfaktor Vertrieb: Wie Produkte wirklich in den Handel kommen

Viele unterschätzen den Aufwand, der hinter einem erfolgreichen Listungsgespräch steht. Händler*innen erwarten nicht nur ein gutes Produkt – sie wollen einen Business Case:

  • Wie hoch ist die Spanne für den Handel?
  • Wie ist die Wiederkaufsquote?
  • Wie sieht das Launch-Marketing aus?
  • Gibt es POS-Materialien oder begleitende Werbekampagnen?

Ein Listungsgespräch ist kein Pitch – es ist ein Verhandlungstermin auf Basis knallharter Zahlen. Ohne überzeugende Umsatzplanung, Distributionserfahrung und schnelle Liefer­- fähigkeit hat ein Start-up kaum Chancen auf eine langfristige Platzierung im Regal. Viele Gründer*innen lernen das schmerzhaft erst nach dem Launch.

Zukunftstechnologien im Food-Bereich

Die Food-Branche steht am Beginn einer technologischen Revolution. Neue Verfahren wie Präzisionsfermentation, Zellkultivierung, 3D-Food-Printing oder molekulare Funktionalisierung eröffnen völlig neue Produktkategorien. Beispiele sind:

  • Perfect Day (USA) stellt Milchprotein via Mikroorganismen her – völlig ohne Kuh.
  • Formo (Deutschland) produziert Käseproteine durch Fermentation.
  • Revo Foods (Österreich) bringt 3D-gedruckten Fisch auf pflanzlicher Basis in die Gastronomie und Handel.

Diese Technologien sind kapitalintensiv, regulatorisch komplex, aber langfristig zukunftsweisend. Wer heute die Brücke zwischen Wissenschaft, Verbraucher*innenbedürfnis und industrieller Machbarkeit schlägt, wird zu den Innova­tionsführer*innen von morgen zählen.

Neben dem klassischen Lebensmitteleinzelhandel gewinnen alternative Vertriebskanäle zunehmend an Bedeutung. Insbesondere spezialisierte Bio- und Reformhäuser wie Alnatura, Denns oder basic bieten innovativen Start-ups einen niedrigschwelligen Einstieg, da sie auf trendaffine Sortimente, nachhaltige Werte und kleinere Produzent*innen setzen. Hier zählen Authentizität, Zertifizierungen und persönliche Beziehungen mehr als reine Umsatzversprechen.

Auch der Onlinehandel wächst rasant: Der Anteil von E-Commerce im deutschen Lebensmitteleinzelhandel liegt zwar erst bei etwa drei bis vier Prozent, doch Plattformen wie Amazon Fresh, Picnic, Knuspr oder Getir bieten zunehmend Raum für neue Marken. Gerade Quick-Commerce-Anbietende ermöglichen kurzfristige Testmärkte und agile Vertriebspiloten in urbanen Zielgruppen.

Der Blick in die USA zeigt, was in Europa bevorsteht: Dort erzielt TikTok bereits über seinen eigenen TikTok Shop mehr als 20 Milliarden US-Dollar Umsatz – Tendenz stark steigend. Immer mehr Food-Start-ups nutzen die Plattform direkt als Verkaufs- und Marketingkanal. Es ist nur eine Frage der Zeit, bis ähnliche Social-Commerce-Strukturen auch in Europa an Relevanz gewinnen – sei es über TikTok, Instagram oder neue, native D2C-Plattformen.

Weitere Trendfelder, die aktuell in den Fokus rücken, sind unter anderem:

  • Regeneratives Essen: Lebensmittel, die nicht nur neutral, sondern positiv auf Umwelt und Biodiversität wirken. Beispiele: Produkte mit Zutaten aus regenerativer Landwirtschaft oder CO-bindende Algen.
  • Blutzuckerfreundliche Ernährung: Start-ups wie Levels (USA) oder NEOH (Österreich) zeigen, wie personalisierte Ernährung über Glukose-Monitoring neue Märkte erschließen kann.
  • „Food as Medicine“: Produkte, die gezielt auf chronische Beschwerden oder Prävention ausgelegt sind – beispielsweise bei Menstruationsbeschwerden, Wechseljahren oder Verdauungsstörungen.
  • Zero-Waste-Produkte: Verwertung von Nebenströmen (z.B. aus Brauereien oder Obstpressen) zur Herstellung von Lebensmitteln mit Nachhaltigkeitsanspruch.
  • Biohacking-Produkte: hochfunktionale Lebensmittel für kognitive Leistung, Schlaf, Erholung oder hormonelle Balance wie zum Beispiel der Marke Moments – by Biogena.

Die Zukunft von Food liegt in der Synthese aus Wissenschaft, Individualisierung und Nachhaltigkeit. Start-ups, die diese Megatrends frühzeitig besetzen, positionieren sich als Pioniere für eine neue Esskultur. Besonders wichtig in der Investor*innenansprache sind:

  • Fundierte Zahlenkenntnis: Gründer*innen sollten Unit Economics, Break-Even-Szenarien und Roherträge detailliert erklären können. Vage Aussagen über Marktpotenzial reichen nicht – es braucht belastbare Szenarien.
  • Proof of Concept: Idealerweise liegt bereits ein MVP (Minimum Viable Product) mit echter Kund*innenvalidierung vor. Pilotprojekte mit Handelspartner*innen oder Online-­Abverkäufe liefern harte Daten.
  • Storytelling mit Substanz: Purpose ist gut – aber er muss betriebswirtschaftlich verankert sein. Was motiviert das Team? Wo liegt der USP? Wie stark ist der Wettbewerb?
  • Team-Komplementarität: Ein starkes Gründer*innen-Team vereint Produkt- und Marktwissen, betriebswirtschaft­liches Denken und Leadership-Kompetenz.
  • Exit-Szenario: Investor*innen wollen eine Perspektive: Wird es ein strategischer Verkauf, ein Buy- & Build-Modell oder ein langfristiger Wachstums-Case?

Wer Investor*innen mit klarer Struktur, realistischen Annahmen und ehrlicher Kommunikation begegnet, hat bessere Chancen auf Kapital – inbesondere in einem Markt, der aktuell selektiver denn je agiert. Genau hier liegt die Kernkompetenz von Food-Start-up-Helfer*innen wie der Alimentastic Food Innovation GmbH, die nicht nur in innovative Unternehmen investiert, sondern ihnen aktiv dabei hilft, die oben genannte operative Komplexität zu überwinden und den Time to Market signifikant zu verkürzen – von der Produktidee bis hin zur Umsetzung im Handel.

Fazit

Der deutsche Food-Start-up-Markt ist herausfordernd, aber voller Chancen. Wer heute erfolgreich gründen will, braucht nicht nur eine starke Produktidee, sondern ein tiefes Verständnis für Produktion, Vertrieb, Kapitalstruktur und Markenaufbau. Functional Food, nachhaltige Innovationen und technologiegetriebene Konzepte bieten enorme Wachstumsmöglichkeiten – vorausgesetzt, sie werden professionell umgesetzt und skalierbar gedacht.

Der Autor Laurenz Hoffmann ist CEO & Shareholder der Alimentastic Food Innovation GmbH und bringt langjährige Erfahrung aus dem Lebensmitteleinzelhandel mit.