Geschäftsidee: Online Spiel Casino - spielerische Erfolge


44 likes

Sie wächst rasant, die Online Glücksspiel-Community. Klar, dass angesichts dieses Trends viele Gründer auf den Erfolgszug aufspringen wollen.

Wer sein eigenes Online Casino eröffnen will, dem winken satte Gewinne, aber nur, wenn die Planung hieb und stichfest ist. Wir zeigen hier, wie Sie erfolgreich gründen können und welche Fallstricke es mit einem Online Casino geben kann.

Rahmenbedingungen zur Eröffnung eines Online Casinos

Wer ein Online Casino eröffnen will, muss sich an einige gesetzliche Auflagen halten und braucht einen aussagekräftigen Businessplan. Die Gesetze zum Betreiben eines Online Casinos sind nicht einheitlich in den Ländern, hier können einige Unterschiede zum Tragen kommen, daher sollten Sie sich vorab gut über die Gesetzeslage informieren. Zum Betreiben von Glücksspielen müssen Sie über eine Lizenz verfügen. Wählen Sie hier am besten eine EU-Lizenz, die in der gesamten EU-Region gültig ist.

Die EU-Lizenz bietet Ihnen viel Freiheit und bietet eine seriöse Außenwirkung. Allerdings ist diese Lizenz an hohe Auflagen und auch recht hohe Kosten gebunden. Lizenzen aus Gibraltar, der Isle of Man oder aus Malta sind unterschiedlich hoch, können aber durchaus bis zu 40.000 Euro Stammkapital, das nachgewiesen werden muss, betragen. Mit dieser Summe lässt sich eine Klasse 3 oder Klasse 4 Lizenz erwerben. Mit diesen Lizenzen ist es erlaubt, auch andere Anbieter zu hosten, was im Rahmen von B2B häufig gemacht wird. Die anderen Anbieter müssen jedoch auch über eine eigene Lizenz verfügen.

Vom Businessplan zur Gewerbeanmeldung

Ein gut ausgearbeiteter Business Plan ist unabdingbar. In ihm sind auch die Kosten des Startkapitals berechnet worden, die Sie zur Anschaffung der Software und zum Einrichten des Online Casinos benötigen. Es ist sinnvoll, mehrere Spiele anzubieten, wenn man schnell erfolgreich werden möchte. Allerdings werden bei mehreren Spielen auch mehrere Lizenzen notwendig. Wichtig ist es auch, das Spielerlebnis kundenfreundlich zu gestalten und mehrere unterschiedliche Bezahlsysteme anzubieten. Wer Wert auf eine hohe Kundenfreundlichkeit legt, richtet auch einen stets verfügbaren Support ein.



Nach der Erstellung des Businessplanes und der Absicherung der Finanzierung müssen Sie eine Anmeldung beim Gewerbeamt vornehmen und sich steuerlich veranlagen lassen. Da erfahrungsgemäß in diesem Bereich viele Fragen aufkommen, sollten Sie die örtliche Wirtschaftsförderung kontaktieren. Die Wirtschaftsförderung bietet in der Regel eine kostenfreie Beratung an. Alternativ kann Ihnen Ihr Steuerberater über die meisten Regelungen Auskunft erteilen und Ihnen für Sie passende Vorschläge machen.

So heben Sie sich von der Konkurrenz ab

Natürlich wimmelt es auf dem Markt von Mitbewerbern, gegen die Sie konkurrieren und sich durchsetzen müssen. Hier hilft schon im Vorfeld der Gründung eine gründliche Recherche und eine angepasste Strategie, damit Ihr Unternehmen schnell erfolgreich wird. Am besten informieren Sie sich auch über die aktuelle Konkurrenzlage, um schnell erfolgreich zu werden.
 
Das Spiel Slotty Vegas Casino ist ein gutes Beispiel für ein erfolgreiches Online Spiel, das eine hohe Akzeptanz hat und dessen Beliebtheit nicht abnimmt. Man kann Slotty Las Vegas Zuhause oder unterwegs auf dem Smartphone spielen, das Spiel ist jederzeit zugänglich und die Gewinnchancen sind hoch. Daher hält der Trend um Slotty Las Vegas auch wahrscheinlich die nächsten Jahre an.

Fazit: Mit guter Planung zum Erfolg

Ihr Erfolg mit dem Online Casino baut auf die Punkte: Gute Planung, finanzielle Absicherung durch genügend Stammkapital und eine gründliche Recherche auf. Wenn Sie sich Zeit lassen für eine gründliche Analyse der Möglichkeiten und Gegebenheiten, dürfte Ihrem Erfolg aber kaum etwas im Wege stehen.

KI erfolgreich industrialisieren

Warum 95 Prozent der KI-Pilotprojekte scheitern – und wie du deine Chancen erhöhst, zu den erfolgreichen fünf Prozent zu gehören.

Künstliche Intelligenz ist in der Industrie angekommen, doch zwischen Anspruch und Wirklichkeit klafft oft eine Lücke. Eine aktuelle Untersuchung des MIT - Massachusetts Institute of Technology („The GenAI Divide“) zeigt: Nur fünf Prozent der KI-Pilotprojekte schaffen tatsächlich den Sprung in die produktive Anwendung. Diese „Pilot-to-Production“-Falle ist eines der größten Risiken für Industrieunternehmen heute.

Der feine Unterschied

GenAI ist keine Produktions-KI Oft werden Äpfel mit Birnen verglichen. Generative KI (GenAI) ist fantastisch für kreative Aufgaben und Chatbots, scheitert aber oft an der Verlässlichkeit, die in der Produktion nötig ist. Industrietaugliche „Produktions-KI“ hingegen muss anders funktionieren: Sie lernt aus Maschinendaten, erkennt Zusammenhänge in Echtzeit und muss absolut robust laufen.

Besonders in der Kunststoffverarbeitung, etwa bei schwankenden Recyclingmaterialien oder Verschleiß, spielt Produktions-KI ihre Stärken aus: Sie gibt den Mitarbeitenden an der Maschine konkrete Handlungsempfehlungen, statt nur Daten zu sammeln.

Faktor Mensch und Organisation

Das MIT fand heraus: Technik ist selten das Problem. Es sind die organisatorischen Hürden. Unternehmen, die sich externe Expertise und spezialisierte Software-Partner ins Haus holen, verdoppeln ihre Chance, KI-Projekte erfolgreich in den Regelbetrieb zu überführen. Es geht darum, Fachwissen mit Technologie zu verheiraten.

Wie gelingt der Transfer in den Shopfloor?

  • Fokus statt Gießkanne: Identifiziere konkrete Probleme (z.B. Anfahrausschuss) und priorisiere diese nach wirtschaftlichem Mehrwert.
  • Integration planen: KI darf keine Insel sein. Die Anbindung an IT- und OT-Systeme muss von Anfang an stehen.
  • Externe Power nutzen: Setze auf Partner, die deine Industrie verstehen, um die Kinderkrankheiten von Pilotprojekten zu vermeiden.
  • Skalierung: Starte fokussiert, miss den Erfolg anhand harter Kennzahlen (OEE, Ausschussrate) und rolle sodann funktionierende Lösungen breit aus.

Fazit

Wer KI nicht als IT-Projekt, sondern als Werkzeug für den Shopfloor begreift und strategisch implementiert, sichert sich echte Wettbewerbsvorteile.

Die Autorin Dr. Louisa Desel ist Mitgründerin und CEO der OSPHIM GmbH. Das 2024 gegründete Unternehmen entwickelt spezialisierte KI-Lösungen für die Kunststoffindustrie.

to teach: Vom KI-Hype zur Schulinfrastruktur

Wie das 2022 gegründete EdTech to teach die Lücke zwischen Chatbot und Klassenzimmer schließt.

Vor drei Jahren begann mit dem öffentlichen Zugang zu generativer künstlicher Intelligenz ein weltweiter Hype, der auch vor den Schultoren nicht haltmachte. Doch im Bildungsmarkt entscheidet sich derzeit, ob die Technologie tatsächlich Produktivität schafft oder in einer digitalen Sackgasse endet. Das Hamburger EdTech to teach liefert hierzu eine Blaupause: Was 2022 als Experiment begann, hat sich innerhalb von drei Jahren zu einer Arbeitsplattform für hunderttausende Lehrkräfte entwickelt.

Das Problem: US-Tools verstehen deutsche Schulen nicht

Als generative KI erstmals verfügbar wurde, wirkte ihr Einsatz im Bildungsbereich naheliegend. Doch der Blick auf die internationale Konkurrenz zeigt das Dilemma: Während US-Platzhirsche wie MagicSchool AI oder Diffit den Markt mit hunderten Mikro-Tools fluten und technisch beeindrucken, fehlt ihnen der kulturelle Fit. „Einfach nur Texte aus ChatGPT zu kopieren, löst kein einziges Problem von Lehrkräften“, erklärt Felix Weiß, Co-Founder und CEO von to teach.

Die Diskrepanz zwischen dem Versprechen der KI und dem tatsächlichen Schulalltag war groß. US-Lösungen scheitern oft an spezifischen deutschen Lehrplänen oder liefern reine Multiple-Choice-Formate, die hierzulande kaum Anwendung finden. Lehrkräfte benötigten keine unstrukturierten Textwüsten, sondern didaktisch saubere, lehrplankonforme und sofort einsetzbare Materialien. Genau hier setzte das 2022 von Felix Weiß und Marius Lindenmeier gegründete Unternehmen an.

Der Pivot: Datenschutz als Burggraben

Der entscheidende Wendepunkt kam 2023. Das Start-up vollzog einen Strategiewechsel (Pivot) weg von einer SaaS-Lösung für Verlage hin zu einer direkten Plattform für Lehrkräfte. Anstatt Nutzer*innen mit freien Eingabefeldern (Prompts) allein zu lassen, entwickelte das Team feste Arbeitsblattvorlagen. Dies wurde zum entscheidenden Wettbewerbsvorteil gegenüber internationalen Anbietern: Während diese oft an der strikten DSGVO scheitern, bietet to teach durch Serverstandorte in der EU und Rechtssicherheit eine Lösung, die Schulträger akzeptieren.

Dabei mussten technische Kinderkrankheiten überwunden werden: Frühe KI-Modelle „halluzinierten“ Fakten. To teach reagierte mit der systematischen Integration von Quellen und profitierte zugleich von der rasanten Evolution der Sprachmodelle.

Skalierung im Ökosystem gegen nationale Konkurrenz

Der Markt nahm die Lösung schnell an: Im Januar 2023 meldete sich der erste Nutzer an, bis Ende des Jahres waren es laut Unternehmen bereits knapp 16.000 Lehrkräfte. Das Jahr 2024 markierte dann den Übergang vom Start-up zur Plattform: Durch die Übernahme von fobizz (101skills GmbH) wurde to teach Teil eines größeren Bildungsökosystems. Die Gründer blieben als Geschäftsführer an Bord.

Dieser Schritt war strategisch überlebenswichtig in einem sich konsolidierenden Markt. Einerseits gegenüber agilen Herausforderern, da Konkurrenten wie schulKI, Teachino, KIULY oder Kuraplan zum Teil aggressiv um Landeslizenzen kämpfen bzw. auf dem Markt für KI-gestützte Unterrichtsplanung und Materialerstellung durchgestartet sind.

Andererseits war der Schritte in Hinblick auf etablierte Verlage notwendig. Denn Häuser wie Cornelsen ziehen inzwischen mit eigenen KI-Assistenten nach, sperren ihre Inhalte jedoch oft in geschlossene Systeme, d.h. binden sie oft an die eigenen Verlagswerke.

Durch die erfolgreiche Integration in fobizz ist to teach kein isoliertes Insel-Tool mehr, sondern profitiert von bestehenden Landesrahmenverträgen und einem riesigen Vertriebsnetz. Die Nutzer*innenzahlen explodierten förmlich auf über 140.000 Lehrkräfte bis Ende 2024, so die Angaben von to teach.

Status Quo 2025: KI als neue Infrastruktur

Heute, im dritten Jahr nach der Gründung, hat sich der Fokus erneut verschoben. To teach versteht sich inzwischen als Arbeitsinfrastruktur. Die Zahlen unterstreichen diesen Anspruch: Nach Angaben von to teach nutzen über 300.000 Lehrkräfte die Plattform, und mehr als 4.000 Schulen sind angebunden. Das bedeutet: Millionen von Inhalten wurden so bereits KI-gestützt vorbereitet.

Das Unternehmen treibt nun den systematischen Schulvertrieb voran. Damit beweisen EdTechs wie to teach, dass sich Qualität und Personalisierung im sonst oft als innovationsresistent geltenden Bildungsmarkt skalieren lassen.

Für CEO Felix Weiß ist die Diskussion über das „Ob“ längst beendet: „Die Frage ist nicht mehr, ob KI im Klassenzimmer ankommt, sondern, wie und auf welche Weise sie dort wirklich hilft.“

Optocycle: Bauschutt-Recycling auf KI-Basis

Die Optocycle-Gründer Max-Frederick Gerken und Lars Wolff Optocycle zeigen, wie aus Bauschutt neuer Rohstoff wird und erhalten dafür eine Förderung der Deutschen Bundesstiftung Umwelt (DBU).

Jährlich fallen in Deutschland laut Umweltbundesamt rund 86 Mio. Tonnen Schutt und Abfälle auf Baustellen an. Häufig landen diese Materialien auf Deponien. So gehen allerdings wertvolle Ressourcen verloren. Der Ausweg: Ein hochqualitatives Recycling des Schutts vermeidet klimaschädliche Emissionen und hält wertvolle Materialien im Wertstoffkreislauf – und das bei zertifiziert gleichwertiger Qualität.

Um das Recycling von Material im Bausektor zu automatisieren, entwickelt das 2022 von Max-Frederick Gerken und Lars Wolff gegründete Start-up Optocycle aus Tübingen ein System auf Grundlage künstlicher Intelligenz (KI) zum Echtzeit-Monitoring.

Echtzeit-Monitoring im Recycling-Prozess

Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt mit rund 170.000 Euro. Im Rahmen der DBU-Green Startup-Förderung haben die Gründer ein KI-basiertes System zur automatischen, reproduzierbaren Klassifizierung von Bauabfällen entwickelt. Darauf aufbauend soll nun ein Prototyp das Echtzeit-Monitoring von RC-Körnungen – also recycelten Gesteinskörnungen aus Bauschutt – ermöglichen.

 „Aktuell basiert in der Branche der Aufbereitungsprozess von Bauschutt meist auf subjektiven Schätzungen“, so Max-Frederick Gerken.  Auch das Endprodukt werde nur stichprobenartig im Labor überprüft. Mit dem System sei „Echtzeitmonitoring von Recycling-Gesteinskörnungen möglich. Somit können die Qualität der Körnung verbessert und mehr Material in die Beton-Produktion überführt werden“, so Gerken.

Die Qualität von Sekundärrohstoffen verbessern

Das System kombiniert laut Gerken moderne, optische Sensorik mit KI – und löse so ein altbekanntes Problem in der Baubranche. „Zurzeit schwankt oft die Beschaffenheit der recycelten Rohstoffe. Das bedeutet einerseits ein wirtschaftliches Risiko für Unternehmen und führt andererseits zum Verlust von wertvollen Materialien“, so Gerken. Optocycle erwartet mithilfe seiner Entwicklung eine 20 Prozent höhere Menge an recycelten, hochqualitativen Gesteinskörnungen sowie 15 Prozent geringere Abfallreste, die sonst auf Deponien landen würden. Dazu werden nach Gerkens Angaben sowohl der eingehende Schutt „optimal klassifiziert“ als auch das Ergebnis transparent überprüft. Kooperationspartner ist hierbei die Heinrich Feeß GmbH, die laut Gerken bereits seit vielen Jahren mit Optocycle zusammenarbeitet. Der Mitgründer weiter: „Die Technologie leistet einen Beitrag für Kreislaufwirtschaft im Bauwesen. Wir helfen dabei, die Qualität von Sekundärrohstoffen zu verbessern, die aus dem Bauschutt gewonnen werden. Diese Lösung lässt sich zudem perspektivisch auf alle Abfallströme übertragen."

Das System von Optocycle kann Gerken zufolge direkt in bereits bestehende Anlagen zur Verarbeitung von Bauabfällen installiert werden – „direkt über dem Fließband.“ Diese einfache Nachrüstung spare Kosten und ermögliche die schnelle Umsetzung eines innovativen Bauschutt-Recyclings. „Denn nur wenn das Recycling finanziell machbar ist, kann die Kreislaufwirtschaft in der Baubranche Erfolg haben“, so Gerken.

Kreislaufwirtschaft in der Baubranche ist aktiver Klimaschutz

Kreislaufwirtschaft in der Baubranche hat nach den Worten des zuständigen DBU-Referenten Dr. Volker Berding wichtige Effekte für den Klimaschutz: „Die Produktion von immer neuem Beton sorgt für hohen Ausstoß von klimaschädlichen Treibhausgasen.“ Einer WWF-Studie zufolge entstehen bei der Herstellung von Zement – dem wichtigsten Bestandteil von Beton – acht Prozent der gesamten globalen Treibhausgasemissionen. Berding: „Alles, was zur einer Emissionsreduzierung beiträgt, hat also bereits einen großen Effekt für den Klimaschutz.“ Eine Kreislaufwirtschaft funktioniere jedoch nur, „wenn die Sekundärrohstoffe sich qualitativ nicht von einer Neuproduktion unterscheiden. Genau diesen Schritt kann Optocycle mit einem skalierbaren, optimierten Prototypen gehen.“

Report: Inside Germany’s EnergyTech Market

Aktuelle Ein- und Ausblicke für Gründer*innen und Start-ups im EnergyTech-Markt.

EnergyTech gehört in Deutschland zu den spannendsten, aber auch herausforderndsten Märkten für Gründer*innen. Die Kombination aus technologischer Innovation, wirtschaftlichem Potenzial und der Dringlichkeit, das Energiesystem klimaneutral zu gestalten, schafft enorme Chancen. Gleichzeitig ist die Eintrittsbarriere hoch, denn der deutsche Energiemarkt ist einer der komplexesten und am stärksten regulierten weltweit.

Laut der Internationalen Energieagentur werden im Jahr 2025 weltweit rund 2,1 Billionen Euro in saubere Energien investiert. Damit übertreffen die Investitionen in erneuerbare Energien erstmals die in fossile Brennstoffe deutlich. Deutschland spielt dabei eine zentrale Rolle, denn kein anderes Land in Europa verfügt über eine vergleichbare Durchdringung mit erneuerbaren Energien. Diese Vorreiterrolle macht den Markt attraktiv, aber auch kompliziert.

Gründer*innen, die in diesem Umfeld aktiv werden, müssen verstehen, dass Erfolg hier weniger von reiner Technologie abhängt, sondern von der Fähigkeit, sich in einem vielschichtigen System aus Regularien, Netzstrukturen und politischen Rahmenbedingungen zu bewegen. Es reicht nicht, eine gute Idee zu haben. Entscheidend ist, wie diese Idee in ein System passt, das auf Stabilität, Versorgungssicherheit und langfristige Planung ausgelegt ist.

Deutschlands Energiemarkt zwischen Stabilität und Veränderung

Der deutsche Energiemarkt gilt als hoch reguliert, gleichzeitig aber auch als offen für neue Akteur*innen. Wer hier tätig werden will, findet klar definierte Wege, um als Energieversorger*in zugelassen zu werden. Doch der Weg dorthin ist gesäumt von Genehmigungen, Netzanschlussverfahren und Förderbedingungen.

Die Stabilität des Systems steht über allem. Jede Veränderung im Netz kann weitreichende Folgen haben, weshalb die Regulierung streng überwacht wird. Netzbetreiber*innen müssen ständig das Gleichgewicht zwischen Erzeugung und Verbrauch sichern, um Versorgungsstörungen zu vermeiden. Das führt dazu, dass Innovationen nur schrittweise eingeführt werden können.

Hinzu kommt die dezentrale Struktur des Energiesystems. Deutschland hat den Umbau seiner Energieversorgung regional organisiert, was zu einer Vielzahl von kleinen Akteur*innen führt. Ob Solaranlagen auf Privathäusern, Windparks in ländlichen Regionen oder Batteriespeicher in Städten, alle müssen an das öffentliche Netz angeschlossen werden. Dieses Netz ist die Lebensader des Systems, aber gleichzeitig ein Flaschenhals. Jede neue Installation benötigt einen Netzanschluss, und die Wartezeit kann sich über mehrere Jahre erstrecken.

Diese Verzögerungen sind eine der größten Herausforderungen für Start-ups. Klassische Wachstumsmodelle, die auf schnelle Skalierung ausgelegt sind, stoßen hier an ihre Grenzen. Gründer*innen müssen lernen, mit langen Planungszeiträumen zu arbeiten und ihre Finanzierungsstrategie darauf abzustimmen. Softwarelösungen können helfen, Prozesse zu vereinheitlichen und Transparenz zu schaffen. Doch auch hier gilt: Der deutsche Markt lässt sich nicht einfach durch Technologie beschleunigen. Erfolg entsteht durch Anpassungsfähigkeit, Vertrauen und Systemverständnis.

Innovation im System statt Disruption von außen

Viele Start-ups treten mit dem Ziel an, Märkte zu verändern oder bestehende Strukturen zu durchbrechen. In der Energiebranche stößt dieser Ansatz jedoch schnell an seine Grenzen. Das Energiesystem ist keine klassische Konsumlandschaft, sondern Teil der kritischen Infrastruktur. Es versorgt Millionen Menschen und Unternehmen mit Strom, Wärme und Mobilität. Jede Veränderung muss sorgfältig integriert werden, um Stabilität zu gewährleisten.

Statt auf radikale Umbrüche zu setzen, braucht es eine Haltung der systemischen Innovation. Erfolgreiche EnergyTech-Unternehmen arbeiten mit dem System, nicht gegen es. Sie schaffen Lösungen, die bestehende Prozesse verbessern und den Übergang zur Klimaneutralität erleichtern. Unternehmen wie Gridx, EV.Energy, Enspired, Reev oder Thermondo zeigen, wie das funktionieren kann. Sie haben ihre Geschäftsmodelle so aufgebaut, dass sie technologische Exzellenz mit regulatorischer Konformität und gesellschaftlicher Akzeptanz verbinden.Für Gründer*innen bedeutet das, sich früh mit Netzbetreiber*innen, Behörden und Installationsbetrieben zu vernetzen. Der Aufbau von Vertrauen ist im Energiesektor ein strategischer Vorteil. Wer die Abläufe in Kommunen, Stadtwerken und öffentlichen Einrichtungen versteht, kann die langen Vertriebszyklen besser steuern und Pilotprojekte realistisch planen.

Warum gute Ideen im Energiemarkt oft scheitern

Die Gründe für das Scheitern von EnergyTech-Start-ups liegen selten in der Technologie. Viel öfter sind es strukturelle oder strategische Fehler. Der Verkauf an Energieversorger*innen oder kommunale Betriebe dauert oft mehrere Jahre. Wer in dieser Zeit nicht über ausreichend Kapital und Geduld verfügt, läuft Gefahr, aufzugeben, bevor der Markteintritt gelingt.

Ein weiterer kritischer Punkt ist die Zusammensetzung des Teams. In vielen Fällen sind Teams stark technisch geprägt, während Marktverständnis, politische Kompetenz und regulatorisches Wissen fehlen.

Auch die Wahl der Investor*innen spielt eine entscheidende Rolle. Kapitalgeber*innen, die nur finanzielle Rendite erwarten, sind im Energiemarkt selten die richtige Wahl. Wichtiger sind Investor*innen, die strategischen Netzwerke öffnen, Kontakte zu Stadtwerken oder Netzbetreiber*innen vermitteln oder bei der Skalierung unterstützen. Eine gut strukturierte Cap Table mit klaren Verantwortlichkeiten schafft dabei Transparenz und Vertrauen.

Darüber hinaus müssen Gründer*innen ihre Wirkung belegen können. Im Energiemarkt zählt nicht nur der technologische Fortschritt, sondern auch der nachweisbare Beitrag zur Dekarbonisierung. Wer den Carbon Return on Investment klar beziffern kann, wer Pilotprojekte erfolgreich umsetzt und belastbare Daten liefert, überzeugt Kund*innen, Partner*innen und Investor*innen gleichermaßen. Greenwashing hingegen ist ein reales Risiko. Der Markt erkennt schnell, wer nur mit Nachhaltigkeit wirbt, ohne messbare Ergebnisse zu liefern.

Strategien und praxisnahe Tipps für Gründer*innen

Es gibt mehrere zentrale Hebel, mit denen Gründer*innen die typischen Hürden im deutschen Energiemarkt überwinden können. Einer der wichtigsten ist der Aufbau früher Partnerschaften. Kooperationen mit Netzbetreiber*innen, Stadtwerken oder kommunalen Einrichtungen schaffen Glaubwürdigkeit und erleichtern den Zugang zu Genehmigungsprozessen. Wer diese Partnerschaften schon in der Entwicklungsphase aufbaut, versteht die Marktmechanismen besser und kann Projekte effizienter realisieren.

Ebenso entscheidend ist die Zusammensetzung des Teams. Interdisziplinarität ist im Energiesektor kein Luxus, sondern Notwendigkeit. Erfolgreiche Teams vereinen technische, wirtschaftliche und politische Kompetenzen. Sie wissen, wie regulatorische Entscheidungen getroffen werden, welche Förderprogramme relevant sind und wie man Innovationsprojekte in bestehende Strukturen integriert. Ein divers aufgestelltes Team kann Risiken besser einschätzen und Investor*innen überzeugender ansprechen.

Auch die Gestaltung der Cap Table verdient besondere Aufmerksamkeit. Kapitalgeber*innen sollten nicht nur Geld mitbringen, sondern auch strategischen Mehrwert bieten. Kontakte zu Entscheidungsträger*innen, Branchenkenntnis und operative Unterstützung bei Pilotprojekten sind entscheidende Erfolgsfaktoren. Eine transparente Struktur, in der jede Partei klar definierte Rollen hat, fördert Vertrauen und beschleunigt Entscheidungen.

Ein weiterer zentraler Punkt ist die Nachweisbarkeit von Wirkung. Gründer*innen müssen ihren ökologischen und ökonomischen Mehrwert belegen können. Messbare Kennzahlen wie Emissionseinsparungen, Energieeffizienz oder Carbon ROI sind ausschlaggebend, um Glaubwürdigkeit zu schaffen. Pilotprojekte mit belastbaren Ergebnissen überzeugen nicht nur Investor*innen, sondern auch Kund*innen und öffentliche Partner*innen.

Nicht zuletzt braucht es realistische Planung. Genehmigungsprozesse und Netzanschlüsse dauern in Deutschland oft Jahre. Wer dies in der Finanzplanung berücksichtigt und seine Strategie auf gestaffelte Rollouts oder modulare Produktarchitekturen ausrichtet, vermeidet teure Fehlentscheidungen. Skalierung im Energiemarkt bedeutet nicht Geschwindigkeit um jeden Preis, sondern nachhaltiges Wachstum mit stabilem Fundament.

Blick nach vorn: Warum sich Ausdauer lohnt

Trotz aller Hürden bleibt der deutsche Energiemarkt für Gründer*innen besonders attraktiv. Die globalen Trends sprechen eine klare Sprache: Laut der Internationalen Energieagentur (IEA) wird sich die installierte Leistung aus erneuerbaren Energien weltweit bis 2030 voraussichtlich mehr als verdoppeln, angetrieben vor allem durch den rasanten Aufstieg der Solarenergie. Wind- und Speichertechnologien werden ebenfalls stark wachsen, während Start-ups gleichzeitig mit Herausforderungen in Lieferketten, Netzintegration, Finanzierung und politischen Veränderungen umgehen müssen.

Eine aktuelle Zwischenbilanz der Internationalen Agentur für erneuerbare Energien (Irena) zeigt, dass die weltweite neu installierte Leistung 2024 bei rund 582 Gigawatt lag – ein Rekordwert. Gleichzeitig reicht dies nicht aus, um die auf der Uno-Klimakonferenz von Dubai 2023 vereinbarten Ziele zu erreichen, die Kapazität bis 2030 auf 11,2 Terawatt zu verdreifachen. Dazu wären ab sofort jährlich zusätzlich 1.122 Gigawatt nötig. Auch bei der Energieeffizienz hinken die Fortschritte hinterher: Die jährliche Wachstumsrate liegt aktuell bei rund einem Prozent, während vier Prozent notwendig wären.

Für Gründer*innen bedeutet dies, dass die Nachfrage nach innovativen, zuverlässigen und systemgerechten Lösungen weiter steigen wird. Wer sich frühzeitig auf Pilotprojekte einlässt, Netzanschlüsse koordiniert und regulatorische Prozesse kennt, kann einen entscheidenden Vorsprung erzielen. Deutschland bietet durch klare Klimaziele, Förderprogramme und politische Unterstützung zudem ein Umfeld, in dem Innovationen nachhaltige Wirkung entfalten können.

Ausdauer zahlt sich aus, weil die Transformation der Energieversorgung Zeit braucht. Wer heute in Partnerschaften, systemgerechte Lösungen und messbare Wirkung investiert, legt das Fundament für langfristigen Markterfolg. Die Verbindung von Innovation, Skalierbarkeit und nachweisbarem ökologischen Mehrwert wird zum entscheidenden Wettbewerbsvorteil und ermöglicht Gründer*innen, die Energiewende aktiv mitzugestalten.

Der Autor Jan Lozek ist Geschäftsführer von Future Energy Ventures. Als Investor und Wegbereiter der Energiewende unterstützt er Gründer*innen dabei, Technologien für ein klimaneutrales Energiesystem zu entwickeln und fördert innovative Unternehmen.

Infinite Roots: Hamburger BioTech bringt pilzbasierte Gerichte ins Kühlregal

Das 2018 von Dr. Mazen Rizk, Anne-Cathrine Hutz und Dr. Thibault Godard als Mushlabs gegründete Hamburger Start-up Infinite Roots (ehemals Mushlabs) bringt die Vorteile der Pilzwelt erstmals als eigenständige Hauptzutat ins Kühlregal.

Infinite Roots ist ein forschungsgetriebenes BioTech-Unternehmen aus Hamburg. Seit 2018 entwickelt das Unternehmen (zunächst unter dem Namen Mushlab) neuartige Lebensmittel auf Basis von Pilzen – inspiriert vom Myzel, dem unterirdischen Wurzelgeflecht essbarer Pilze. Durch Fermentation schafft Infinite Roots Produkte, die über bloße Fleischalternativen hinausgehen. Das Ziel ist es, eine neue Kategorie zu etablieren: Lebensmittel, die echtes Umami und wertvolle Nährstoffe liefern, mit kurzen Zutatenlisten auskommen und die Umwelt entlasten.

Mit mehr als 60 Expert*innen aus Biotechnologie, Data, Lebensmittelwissenschaft und Kulinarik will das Team neue Standards für Geschmack, Qualität und Nachhaltigkeit setzen und zeigen, dass die Ernährung der Zukunft nicht Verzicht bedeutet, sondern Vielfalt und Genuss.

Die MushRoots-Produkte des Unternehmens sind keine Fleischimitate, sondern bieten ein eigenständiges, pilzbasiertes Geschmackserlebnis. Sie zeichnen sich durch einen saftigen, herzhaften Biss und ausgeprägte Umami-Noten aus. Die Hamburger setzen dabei auf Speisepilze, kombiniert mit vertrauten, hochwertigen Zutaten. Entsprechend bauen die Produkte auf einer natürlichen Zutatenliste auf und verzichten auf künstliche Aromen, Geschmacksverstärker und Farbstoffe. So entsteht ein Geschmackserlebnis, das an herzhafte Hausmannskost erinnert. Die Produkte lassen sich vielseitig im Alltag, etwa als Hack, Bällchen oder Patties.

„Im Kühlregal sehen Konsument*innen seit Jahren dieselbe Logik: Tierprotein hier, Pflanzenprotein dort“, sagt Philip Tigges, CCO/CFO von Infinite Roots. „Mit MushRoots bringen wir nicht nur eine dritte Option ins Regal, sondern kehren auch zu Lebensmitteln mit einer natürlichen Hauptzutat zurück. Pilze bieten einen herzhaften Geschmack, sind vielseitig, in allen gewohnten Rezepten einsetzbar und können kinderleicht zubereitet werden.“

MushRoots setzt dabei auf eine Proteinquelle mit vergleichsweise geringem ökologischen Fußabdruck. Pilze lassen sich lokal und ressourcenschonend kultivieren. „Wir wollten nie ein weiteres Fleischimitat herstellen, sondern eine eigene Kategorie umami-reicher Pilzprodukte schaffen, die durch Charakter und Geschmack überzeugen“, ergänzt Tigges. „Unser Ziel ist es jetzt, Menschen für Pilzprodukte zu gewinnen, ohne dass sie Fleisch vermissen.“

Jetzt meldet Infinite Roots, dass vier MushRoots-Produkte ab sofort bei REWE Nord in Norddeutschland und Billa Plus in Österreich erhältlich sind und damit eine neue Kategorie an Pilz-Produkten in die Kühlregale Einzug gehalten haben.

Außenbereiche in der Gastro gestalten: Diese Details werden 2026 wichtig

Erfahre, welche Details 2026 für Außenbereiche in der Gastronomie zählen und Trends prägen.

Im Jahr 2026 werden Außenbereiche in der Gastronomie zu wichtigen Markenbotschaftern. Gäste erwarten mehr als bequeme Sitzplätze: Sie suchen emotionale Erlebnisse, nachhaltige Designs und ein stimmiges Ambiente. Nach Jahren des Wandels hat sich das Verhalten der Gäste spürbar verändert.

Der Fokus liegt auf Authentizität, Wohlgefühl und einem hochwertigen Gesamteindruck. Restaurants, Cafés und Bars nutzen ihre Terrassen zunehmend als Bühne für Stilbewusstsein und Gastfreundschaft. Studien zeigen, dass für viele Gäste der Außenbereich ein entscheidendes Auswahlkriterium ist. Terrassen mit recyceltem Holz, stimmungsvoller Beleuchtung und begrünten Wänden stehen für diese Entwicklung. Die wachsende Bedeutung von Wetterschutz, Lichtkonzepten und Begrünung verdeutlicht, dass der Außenbereich längst nicht mehr Nebenschauplatz ist, sondern zentraler Bestandteil des gastronomischen Erfolgs. 2026 markiert damit eine neue Ära der Freiluftgastronomie – funktional, ästhetisch und emotional zugleich. Die folgenden Abschnitte zeigen, worauf Verantwortliche achten sollten.

 Wetter- und Klimaschutz: Komfort bei jedem Wetter

Ganzjährige Nutzbarkeit wird 2026 zum entscheidenden Erfolgsfaktor gastronomischer Außenräume.

  • Innovative Überdachungen, langlebige Marktschirme, Windschutzsysteme und moderne Heizlösungen schaffen Behaglichkeit bei wechselnden Wetterbedingungen.
  • Glasdächer mit UV-Filtern, textile Pergolen oder transparente Windschutzwände verbinden Schutz mit Offenheit.
  • Elektrische Infrarotheizungen verlängern die Freiluftsaison und reduzieren Energieverluste.
  • Mobile Heizlösungen und wetterfeste Bodenbeläge sichern Funktionalität bei Regen und Kälte.
  • Automatische Luftzirkulationssysteme verhindern sommerliche Überhitzung und steigern die Energieeffizienz.

Entscheidend ist die Balance zwischen technischer Leistungsfähigkeit und optischer Leichtigkeit. So werden Außenbereiche zu wandelbaren Räumen, die unabhängig von Jahreszeit und Wetter hohen Komfort bieten – ein klarer Wettbewerbsvorteil im anspruchsvollen Gastronomiemarkt.

Materialwahl und Möblierung: Wenn Langlebigkeit und Stil aufeinandertreffen

Die Auswahl der Materialien prägt sowohl das Erscheinungsbild als auch die Langlebigkeit eines gastronomischen Außenbereichs. Robuste Metalle wie Aluminium oder Edelstahl, kombiniert mit wetterfestem Teakholz, setzen ästhetische Akzente und sorgen für Beständigkeit.

Hochwertige Textilien aus Acrylgewebe ergänzen das Gesamtbild: Sie sind pflegeleicht, widerstandsfähig und schützen vor dem Ausbleichen durch Sonnenlicht. Besonders gefragt sind langlebige Sonnenschirme, die Schatten spenden und Design mit Funktion verbinden. Modelle mit integrierter Beleuchtung oder komfortabler Öffnungsmechanik erhöhen den Nutzungskomfort.

Modulare Loungemöbel und ergonomische Sitzlandschaften prägen 2026 den Trend zu Flexibilität und Wohlbefinden.

Farben wie warmes Taupe und gedecktes Grün schaffen visuelle Ruhe und unterstreichen die natürliche Anmutung. So entsteht die Basis für harmonische, witterungsbeständige und zugleich stilvolle Außenbereiche.

Nachhaltigkeit als Schlüsselthema: Umweltbewusste Gestaltungskonzepte im Fokus

Nachhaltigkeit ist 2026 kein Zusatz mehr, sondern die Grundlage jeder gelungenen Außengestaltung. Viele Gastronomiebetriebe setzen auf recycelte Materialien, regionale Pflanzen und eine ressourcenschonende Planung mit kurzen Transportwegen.

Bambus, zertifiziertes Holz und recyceltes Aluminium gelten als bevorzugte Werkstoffe. Begrünte Pergolen und Dachgärten verbessern das Mikroklima und binden Feinstaub. Energieeffiziente LED-Beleuchtung reduziert Stromverbrauch und Wartungsaufwand. Neben der Materialwahl spielt auch der Umgang mit Wasser eine zentrale Rolle: Regenwasserspeicher und automatische Bewässerungssysteme unterstützen ein ökologisches Gleichgewicht. Moderne Lösungen rund um  Geschäftsideen, die unter anderem aus dem Bereich der KI stammen, könnten hier in Zukunft noch weiter relevant werden.

Heimische Pflanzen wie Lavendel oder Ziergräser schaffen ergänzend natürliche Rückzugsorte und unterstreichen die ästhetische Wirkung nachhaltiger Gestaltung. Nachhaltigkeit bedeutet bewusste, umweltgerechte Planung – ästhetisch, zukunftsorientiert und wirtschaftlich sinnvoll.

Beleuchtungskonzepte: So entsteht Atmosphäre durch Licht

Beleuchtung entscheidet über Stimmung und Aufenthaltsqualität im Außenbereich. 2026 liegt der Fokus auf atmosphärischem Licht, das Funktion und Emotion miteinander verbindet und auf detailreichen Akzenten.

  • Warmweiße LED-Leisten, dezente Spots oder laternenartige Leuchten schaffen Struktur und Tiefe. Indirekte Beleuchtung – über reflektierende Flächen geführt – betont architektonische Elemente und sorgt für eine angenehme Lichtwirkung.
  • Farblich variable und flexibel steuerbare Systeme ermöglichen eine Anpassung an Tageszeit und Anlass.
  • Solarleuchten gewinnen an Bedeutung, da sie Nachhaltigkeit mit hoher Flexibilität verbinden und den Energieverbrauch deutlich reduzieren.
  • Lichtinseln an Tischen und Wegen fördern Orientierung und Sicherheit.

Am Abend wird das Zusammenspiel von Helligkeit und Schatten selbst zum Gestaltungselement. Ein durchdachtes Beleuchtungskonzept schafft Atmosphäre und unterstreicht den Charakter des gastronomischen Außenbereichs.

Flexibilität und Modularität: So praktisch sind anpassungsfähige Außenkonzepte

Flexibilität wird 2026 zur Grundvoraussetzung moderner Außenkonzepte. Saisonale Veränderungen, wechselnde Wetterbedingungen und unterschiedliche Gästezahlen erfordern wandelbare Strukturen.

Modulare Möbel, klappbare Trennelemente und mobile Theken ermöglichen schnelle Umgestaltungen. Design und Funktion greifen dabei nahtlos ineinander. Flexible Bodenmodule, frei positionierbare Lichtlösungen und rollbare Pflanzenkübel erleichtern den Umbau zusätzlich.

Der Begriff des dynamischen Außenraums beschreibt Bereiche, die sich je nach Nutzungssituation verändern lassen. Temporäre Überdachungen und anpassbare Windschutzlösungen schaffen weitere Freiräume.

So steht Wandlungsfähigkeit nicht nur für Praktikabilität, sondern auch für kreative Gestaltungsfreiheit, die Außenbereiche lebendig, vielseitig und zukunftssicher macht.

Pflanzen und Begrünung: Natürlichkeit als Gestaltungselement

Begrünung ist 2026 mehr als Dekoration – sie wird zum zentralen Designelement gastronomischer Außenräume. Vertikale Gärten, bepflanzte Trennwände und saisonal wechselnde Blühflächen schaffen natürliche Strukturen und verbessern das Mikroklima. Besonders urbane Standorte profitieren von dieser grünen Aufwertung. Pflanzen wie Lavendel, Gräser oder Olivenbäume verbinden mediterrane Leichtigkeit mit robuster Alltagstauglichkeit.

Auch Nutzpflanzen wie Kräuter, Minze oder essbare Blüten gewinnen an Bedeutung und verleihen dem Außenbereich Authentizität. Moderne Begrünungssysteme erleichtern Pflege und Bewässerung und machen grüne Konzepte dauerhaft praktikabel. Begrünung fördert Biodiversität, vermittelt Ruhe und schafft eine einladende Atmosphäre. So wird der Außenbereich zur kleinen Oase, in der Natur, Design und Gastlichkeit harmonisch zusammenfinden.

Technologische Innovationen: Smarte Lösungen im Außenbereich werden immer beliebter

Technologie prägt 2026 die Gestaltung gastronomischer Außenbereiche nachhaltig. Digitale Lösungen ermöglichen einen optimierten Betrieb und steigern zugleich den Gästekomfort.

  • Smarte Heizsysteme mit Bewegungssensoren
  • automatisierte Schirmsteuerungen
  • appbasierte Lichtkonzepte

machen Abläufe effizienter und energiesparender. Vernetzte Systeme passen Beleuchtung, Temperatur und Beschattung automatisch an Wetter und Tageszeit an. Digitale Reservierungslösungen zeigen Sitzplatzverfügbarkeiten in Echtzeit und erleichtern die Planung.

USB-Ladepunkte an Tischen und kabellose Soundsysteme erweitern die Funktionalität und erhöhen den Komfort. So ergänzt moderne Technik energieeffiziente Konzepte und verleiht Außenbereichen ein zeitgemäßes, hochwertiges Erscheinungsbild. Das Zusammenspiel von Technik und Design macht smarte Außenräume zukunftsfähig und sorgt für ein stimmiges Gästeerlebnis – vom frühen Abend bis in die Nacht.

Farben und Designs: Was liegt 2026 im Trend?

Farb- und Designtrends prägen 2026 die Atmosphäre gastronomischer Außenflächen. Natürliche Töne wie Sand, Oliv und Terrakotta dominieren, während Akzente in Ockergelb oder Petrol Frische und Tiefe verleihen.

Strukturen gewinnen an Bedeutung: Geflochtene Texturen, matte Oberflächen und handwerkliche Details vermitteln Authentizität. Organische Formen und modulare Gestaltungskonzepte setzen auf Leichtigkeit und Flexibilität.

Auch die Einbindung lokaler Materialien stärkt die regionale Identität und verleiht Außenbereichen Charakter. Farbkonzepte folgen dem Prinzip „Weniger ist mehr“: Feine Kontraste zwischen warmen und kühlen Nuancen schaffen Ruhe und Orientierung. Biophiles Design, das Natur und Architektur verbindet, sowie der Japandi-Stil – eine Verbindung aus japanischem Minimalismus und skandinavischer Klarheit – prägen die Ästhetik.

Das Ergebnis sind Außenbereiche mit visueller Klarheit, zeitloser Eleganz und stilistischer Beständigkeit.

Darum ist es wichtig, das Thema Geräuschmanagement nicht zu unterschätzen

Akustik wird 2026 zu einem entscheidenden Faktor für das Wohlbefinden in gastronomischen Außenbereichen, besonders in urbanen Lagen. Lärmreduktion und gezielte Klanggestaltung – also die bewusste Steuerung von Schall und Nachhall – verbessern oft spürbar die Aufenthaltsqualität.

Schalldämpfende Materialien wie Akustikpaneele aus recycelten Fasern oder begrünte Wände kommen dabei vermehrt zum Einsatz.

Auch schallabsorbierende Textilien, gepolsterte Möbel und bepflanzte Flächen wirken geräuschmindernd.

So entstehen Rückzugsorte mitten im städtischen Trubel. Dezente Hintergrundmusik schafft Balance, ohne Gespräche zu überlagern. Das Ergebnis sind entspannte Außenbereiche, in denen Kommunikation mühelos möglich bleibt. Akustisches Design wird damit zu einem zentralen Bestandteil moderner Gastronomiearchitektur – funktional, ästhetisch und wohltuend zugleich.

KI-Trends 2026: Reifer, realer, relevanter

2026 tritt KI in eine neue Phase ein: weniger Hype, mehr Haltung. Expert*innen aus Technologie, Kommunikation und Mittelstand zeigen, wie künstliche Intelligenz Prozesse transformiert, Entscheidungen präziser macht und Marken stärkt – aber auch neue Risiken schafft, von Voice-Cloning bis Abhängigkeiten großer Plattformen. Klar wird: KI entfaltet ihr Potenzial dort, wo Unternehmen sie verantwortungsvoll einsetzen, Transparenz schaffen und menschliche Kompetenz stärken.

Zwischen Dynamik und Verantwortung: KI braucht gemeinsame Sichtweisen

„KI schafft keine perfekten Lösungen auf Knopfdruck, sondern eröffnet neue Wege, Herausforderungen besser zu bewältigen. Die größten Chancen liegen darin, Wissensverlust zu vermeiden, Reibungsverluste zu reduzieren und individueller auf Menschen einzugehen – im Gesundheitswesen genauso wie in HR, Bildung und Produktion. Gleichzeitig besteht die größte Herausforderung darin, eine gemeinsame Sichtweise auf KI zu entwickeln: Alle reden darüber, aber oft über völlig Unterschiedliches. Das gelingt nur über kleine Schritte, viel Kommunikation und eine Annäherung auf Augenhöhe. Zugleich zeichnet sich ein klarer Trend ab: die Fragmentarisierung der KI-Landschaft und eine problematische Abhängigkeit von US-Anbietern, die neue, eigene Handlungswege erfordert. Wer diese Dynamik versteht und verantwortungsvoll gestaltet, erschließt das Potenzial von KI von automatisierten medizinischen Leistungen über effizientere Produktionsprozesse bis hin zu deutlich schnelleren Innovationszyklen.“

KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar

Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.

Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.

Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?

Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.

Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.

Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.

Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.

Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.

Schnelles Wachstum kann zu einem Überschuss führen

Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.

Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.

Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.

Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung

Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.

Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“

Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.

Automatisiertes und datenbasiertes Pflanzenwachstum

Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“

Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.

Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren

Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“

DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau

Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.

GreenTech – der Boom geht zu Ende

Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.

Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.

Der Boom geht zu Ende

„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze.  „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“

Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich.  Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“

Herausforderungen im deutschen GreenTech-Sektor

Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte.  Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“

Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit

„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“

Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“

Politik und Wirtschaft in gemeinsamer Verantwortung

Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“

Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.

HR-Trends 2026

Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.

Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.

Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.

1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise

Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.

2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?

Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360GradFeedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.

3. Mensch und KI – zwei Seiten der HR-Medaille

2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.

4. Führung neu denken – Managementpositionen verlieren an Attraktivität

Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.

5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt

Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.

Fazit

Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.

Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Report: Quantencomputing

Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.

Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.

Herausforderungen

Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.

Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.

Trends

In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.

Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.

Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintritts­barrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.

Die Rolle von Start-ups

Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.

Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.

Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.

Deutsche QC-Start-ups mischen ganz vorne mit

Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.

Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.