Die Zukunft der digitalen Infrastruktur


44 likes

Mit „DI 2020. IT-Infrastruktur für das digitale Zeitalter“ von TechData liegt eine Studie vor, die sich mit allen Trends befasst, die im Bereich Digitalisierung und IT-Infrastrukturen in Zukunft für Unternehmen wichtig werden. Viele sind es schon jetzt, ihre Bedeutung wird aber weiter wachsen. Um zukunftsfähig zu bleiben, müssen sich nicht nur etablierte Firmen rechtzeitig auf diese Trends einstellen.

Die Evolution der IT-Infrastruktur

Die digitale Transformation beschleunigt weiter und stellt Unternehmen damit vor immer größere Herausforderungen. Denn die IT-Anwendungen der Zukunft bringen neue Anforderungen mit sich, die mit den herkömmlichen Infrastrukturen nicht mehr bewältigen lassen.

Wer nicht nur reagieren, sondern proaktiv handeln möchte, muss daher bei grundlegenden Elementen ansetzen – das gilt vor allem für die Rechenzentren. Diese müssen immer leistungsfähiger werden, was vor allem der Forderung nach zunehmender Flexibilität geschuldet ist.

An ihnen lässt sich deutlich aufzeigen, wie sich die Anforderungen an die digitale Infrastruktur insgesamt geändert haben. Die Gründe hierfür liegen wiederum in den Veränderungen, die das digitale Arbeiten mit sich bringt. Zum Beispiel dessen weitere Verbreitung, die nur noch weniger als ein Viertel der Unternehmen ausklammert.

Mehr Geschwindigkeit, mehr Komplexität

Die grundlegenden Aspekte, um die sich eine funktionierende, zukunftsfähige digitale Infrastruktur dreht, lassen sich auf die einfache Formel herunterbrechen: mehr Geschwindigkeit und mehr Komplexität. Mehr Daten sollen so schnell wie möglich gesammelt, gespeichert, analysiert, visualisiert und weiterverarbeitet werden.

Traditionelle Workloads greifen in diesem Big-Data-Umfeld deshalb nicht mehr. Sie sind auf Standardprozesse ausgelegt, die ein hohes Maß an Stabilität (nicht zuletzt im Sinne der Ausfallsicherheit) bieten und kosteneffizient sind. Durch die fortschreitende Digitalisierung gewinnen neben diesen beiden aber weitere Faktoren an Bedeutung.

Flexiblere und agilere Anwendungen und Prozesse

Die Datenmengen erfordern durch ihr Ausmaß eine andere Herangehensweise. Zusammenhänge zu erkennen und wirtschaftlich sinnvolle Schlüsse zu ziehen, wird eine immer komplexere Aufgabe:

Rechenzentren müssen darauf eingestellt sein, denn sie ermöglichen wiederum innovative Strategien und Prozesse, um die gewonnenen Daten richtig nutzen zu können. Das schließt unter anderem die Arbeit mit verschiedenen Cloud-Architekturen ein.

Daneben müssen, in einem fortlaufenden Prozess, technologische Neuerungen berücksichtigt und gegebenenfalls in die bestehende Infrastruktur integriert werden. Nur so kann beispielsweise der notwendige Automationsgrad erreicht werden, um riesige Datenmengen verarbeiten zu können.

Schneller, komplexer, umfangreicher: Der Umgang mit verschiedenen Workloads

Moderne IT-Strukturen müssen letztlich einen schwierigen Balance-Akt schaffen:

Einerseits verlangt die digitale Transformation mehr Agilität in der Infrastruktur, um auf technologische Neuerungen, digitale Trends und Big-Data schnell genug reagieren zu können – das ist auch unter Wettbewerbsgesichtspunkten eine Notwendigkeit.

Andererseits gelten die „alten“ Prinzipien weiterhin, ihr Zusammenwirken mit neuen Komponenten wird allerdings komplexer. Agilität und Stabilität müssen in Einklang gebracht werden und das vor einem finanziellen Hintergrund, in dem Kosteneffizienz nach wie vor wichtig, Investitionen in die Ausgestaltung der Infrastruktur aber erforderlich sind.

Thema Sicherheit: Relevanter als jemals zuvor

Bei aller Anpassungs- und Leistungsfähigkeit bleibt das Thema Sicherheit ein überaus relevanter Punkt. Server-Systeme müssen unabhängig von der Unternehmensgröße technisch in der Lage sein, die Sicherheit von immer größeren Mengen sensibler Daten zu gewährleisten.

Das ist, auch dank Cloud-Technologie, nicht mehr so sehr eine Frage der Hardware, dafür umso mehr eine der Software. Diese auf dem neuesten technischen Stand zu halten ist deshalb eine der dringlichsten Aufgaben für moderne IT-Strukturen. Veraltete Server-Software kann zu gravierenden Sicherheitslücken führen.

Dass Server-Betriebssysteme altersbedingt nicht weiter supportet werden, sollte daher für die Verantwortlichen Anlass genug sein, schnell aktuelle Alternativen zu finden. Thomas-Krenn bietet als OEM Partner von Microsoft einen schnellen Umstieg für alle Unternehmen, die vom End of Support für Windows Server 2008/R2 und SBS 2011 betroffen sind.

Mit dem Microsoft Windows Server 2019 lassen sich nicht nur etwaige Sicherheitslücken schließen, die Server-Software lässt sich auch für individuelle Wünsche von KMU anpassen. Damit sind nicht nur etwaige Sicherheitsprobleme gelöst, sondern zugleich die Weichen gestellt für vielfältige Serverfunktionen.

Für datengetriebene Geschäftsmodelle ist eine leistungsfähige und skalierbare Infrastruktur unerlässlich. Voraussetzung für Lösungen, die den unterschiedlichen Anforderungen – Skalierbarkeit, Agilität und Innovation, Ausfallsicherheit, Automation, Kosteneffizienz, Sicherheit – an moderne IT-Strukturen gerecht werden kann, ist die Auseinandersetzung mit strategischen Trends der Digitalisierung.

Strategien für die Digitalisierung

Mit den IT-Infrastrukturen die Grundlagen schaffen, um die digitalen Strategien der Zukunft umsetzen zu können – das ist die Herausforderung, die Unternehmen in zunehmendem Maße bewältigen müssen. Diese strategischen Trends beeinflussen alle Unternehmensbereiche, von der Automatisierung von Arbeitsprozessen über die Geschäftsmodelle bis hin zur User Experience.

Agilität und Innovation

Digitale Infrastruktur muss nicht nur selbst agil und innovativ sein, um mit den Anforderungen des Digitalen Wandels Schritt halten zu können. Sie muss außerdem ausreichende Flexibilität in Sachen Organisation, Geschäftsmodelle und Unternehmensprozesse ermöglichen.

Anpassungsfähigkeit ist ein zentraler Erfolgsfaktor, da auch der Innovationsdruck auf die Unternehmen weiter steigt. Den IT-Plattformen und -Prozessen kommt dabei eine Schlüsselrolle zu. Dazu müssen die entsprechenden Systeme unterschiedlichste Anforderungen bewältigen und technologische Neuerungen integrieren können.

Der Großteil der Unternehmen (rund 85 Prozent) investiert deshalb laut TechData in diesem Bereich. Fast 40 Prozent der befragten Betriebe sehen sogar ein konstantes Wachstum über die nächsten Jahre vor – so die Studie von TechData. Damit schaffen sie die Grundlagen, um neue Technologien früher zu erkennen und für die eigenen Bedürfnisse adaptieren zu können.

Digital User Experience

Die Digitale Transformation hat die Schnittstellen zwischen Mensch und Maschine keineswegs obsolet gemacht, sie sind vielmehr wichtiger geworden. Vor allem in der Interaktion mit Kunden sind sie ein zentraler Aspekt. Diese Bedeutung hängt nicht zuletzt mit den vielen Kommunikationsmöglichkeiten zusammen, die zwischen Nutzern und Unternehmen bestehen.

Damit einher gehen unterschiedliche Erwartungen an die jeweiligen Kanäle, die dementsprechend unterschiedliche technische Lösungen umfassen können – und müssen. Eine solche Lösung sind beispielsweise Chatbots, die mit Künstlicher Intelligenz verschiedene Bereiche des Kundenservice übernehmen können, vom Support bis zur Kaufberatung.

Den Unternehmen scheint die Bedeutung dieser Schnittstellen für die digitalen Erfahrungen ihrer Kunden durchaus bewusst zu sein. Zumindest zeichnet sich bei den geplanten Investitionen in entsprechende Technologien ein ähnliches Bild wie im Bereich Agilität und Innovation – nur knapp über 8 Prozent gehen von geringeren Ausgaben aus. Dagegen sehen rund 41 Prozent ein konstantes Wachstum der Ressourcen für die Digital User Experience kommen.

Data Driven Business

Daten werden zunehmend wichtiger für zahlreiche Geschäftsmodelle. Die Handhabung immer größerer Datenströme und die Umwandlung in einen relevanten Nutzen sind entscheidende Werkzeuge im Wettbewerb, den die digitale Transformation nur noch mehr beschleunigt.

Dabei geht es längst nicht mehr darum, möglichst viele Daten zu sammeln. Big Data war im Grunde genommen nur der Anfang, die anfallenden Datenmengen sind nur die Grundlage für Entscheidungen und neue Entwicklungen in den Unternehmen.

Denn die Daten sind prinzipiell in jedem Konzern vorhanden: Kundendaten, Unternehmensdaten, Prozesse, Marktanalysen, Verkaufszahlen und andere. Sie alle werden ohnehin gesammelt, deswegen ist die wichtigste Frage, wie mit ihnen umzugehen ist, um daraus ein „reasonable product“ zu erschaffen.

Funktionieren kann das nur, wenn aus den Daten die richtigen Insights gefolgert und diese wiederum in konkrete Entscheidungen einfließen können. Die Daten sollen dabei helfen, interne Prozesse zu optimieren und zu automatisieren, was letztlich auch das Daten-Handling selbst betrifft. Im Idealfall besteht das Ergebnis in effizienteren Dienstleistungen und Produkten und somit in zufriedeneren Kunden.

Die Grundlagen hierfür zu schaffen, ist die eigentliche Herausforderung, welcher die Unternehmen mit mehr Investitionen begegnen wollen. Damit soll beispielsweise das Problem der Datenarchivierung und -sicherung angegangen werden. Darüber hinaus gilt es geeignete Methoden und Strategien zu finden, um Daten digital verfügbar und automatisiert analysierbar zu machen.

Im Data Driven Business laufen darum all jene Aspekte zusammen, die im Zusammenhang mit einer zukunftsfähigen IT-Struktur relevant sind: Technologische Voraussetzungen, flexible und agile Systeme, Möglichkeiten für Innovationen in allen Unternehmensbereichen, basierend auf den gewonnenen Daten.

Cognitive Company

Ein Schlüssel, um das Daten-Handling zu verbessern, ist Cognitive Computing. Dabei handelt es sich um Systeme, die Kontextelemente erkennen und verstehen können. Das ermöglicht es ihnen, strukturierte und unstrukturierte Daten zu verwenden und darin Bezüge zu finden.

Auf der Basis von Informationen und Prozessen können solche kognitiven Systeme selbständig und automatisiert an Problemlösungen arbeiten. Gleichzeitig entwickelt sich das System durch Machine Learning kontinuierlich weiter und verbessert seine eigenen Fähigkeiten. Dabei ist es deutlich breiter aufgestellt als KI-Systeme, die üblicherweise spezialisiert auf die Lösung für ein bestimmtes Problem sind.

In einer „Cognitive Company“ sollen kognitive Systeme durch ihre Lern- und Anpassungsfähigkeit Aufgaben übernehmen, für die bislang vornehmlich Menschen zuständig waren. Digitale Kommunikationsschnittstellen wie die bereits erwähnten Chatbots helfen, die gewonnenen Erkenntnisse wieder an menschliche Gesprächspartner zu vermitteln.

Vorläufig ist die Zahl der Unternehmen, die Cognitive Computing bereits anwenden, noch in einem überschaubaren Bereich. Anders sieht es bei der Implementierung von Künstlicher Intelligenz in die digitale Unternehmensstrategie aus – hier ist der Anteil mit 65 Prozent deutlich höher.

Internet of Things und Smart Products

Die Möglichkeiten digitaler Infrastrukturen betreffen aber selbstverständlich nicht nur jene Prozesse, die sich um das Sammeln, Verwalten, Analysieren und Nutzbarmachen von Daten drehen. Über die Wertschöpfungskette hinaus lassen sich außerdem Logistik und Produktion verbessern.

Die Infrastruktur bildet, zusammen mit modernen Sensoren, die Grundlage für ein umfassendes Internet of Things, in dem vernetzte Maschinen miteinander interagieren können. Die Umsetzung von Industrie 4.0-Konzepten ist unter anderem wegen der Möglichkeiten für innerbetriebliche Optimierungen weit verbreitet, der Fortschritt dabei ist laut TechData jedoch recht unterschiedlich.

Da vor allem in produzierenden Betrieben die Potenziale – Stichwort Automatisierung – sehr groß sind, besteht ein großes Interesse daran, Lösungen für die eigenen Bedürfnisse zu entwickeln.

Automatisierung

In digitalen Systemen spielt die Automatisierung auf verschiedenen Ebenen eine wichtige Rolle. Beziehungsweise eröffnet die Digitalisierung neue Möglichkeiten für automatisiert ablaufende Unternehmensprozesse. Als prominentestes Beispiel fallen dazu smarte Fabriken ein, in der die Produktion weitgehend oder sogar vollständig digital und automatisiert abläuft. Überwiegend betrifft das repetitive Arbeitsabläufe ohne große Veränderungen.

Dank flexibler digitaler Infrastrukturen und Cloud Computing können diese Prozesse aber ebenfalls deutlich flexibler gestaltet werden. Das ist etwa für personalisierte und individualisierte Produkte ein großer Vorteil, denn diese können ohne größeren Mehraufwand realisiert werden.

Die Produktion wird dadurch kosteneffizient, wie sie überhaupt insgesamt effizienter wird: Ressourcen können besser verplant werden, von den zu verarbeitenden Materialien bis hin zum notwendigen Energieeinsatz.

Grundsätzlich ist das genauso in kleineren mittelständischen Unternehmen möglich, auch wenn die Herangehensweisen bei der Digitalisierung sich von denen der Global Player unterscheiden. Denn gerade in diesen Betrieben fallen die Investitionen in eine langfristige Verbesserung von IT-Infrastruktur und Automatisierung häufig am schwersten.

Trends für die IT-Infrastruktur der Zukunft

Big Data verspricht zahllose unternehmerische Möglichkeiten. Voraussetzung ist allerdings, die wachsenden Datenmengen sinnvoll nutzen und sicher aufbewahren zu können. Dazu braucht es sowohl technische Lösungen als auch neue Konzepte, damit die IT-Infrastruktur bei der Bewältigung der Daten helfen kann.

Auf diese Weise können Unternehmen ganz neue Vorteile für ihre Wertschöpfungskette ziehen, beispielsweise durch neue Geschäftsmodelle. Grundvoraussetzung für alle sich abzeichnenden Trends bleibt aber ein leistungsstarkes Rechenzentrum.

Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (Paas)

Daneben ist es vor allem das Cloud Computing, das Unternehmen in Sachen Digitalisierung zahlreiche Möglichkeiten eröffnet. Denn es geht hier schon lange nicht mehr nur um einen praktischen Weg, Daten zu archivieren, ohne eigene Speicherkapazitäten zu belasten.

Vor allem Start-ups können über die Cloud eine Vielzahl an Diensten beziehen, für die sie dann keine eigenen IT-Ressourcen aufbringen müssen. Telefonie, Mail, Meetings und andere Aspekte des Arbeitsalltags lassen sich beispielsweise per Cloud-Service nutzen, denkbar sind aber noch viel weitreichendere Cloud-Anwendungen. Infrastructure‑as‑a‑Service (IaaS) etwa stellt Ressourcen rund um die IT‑Infrastruktur bereit. Das umfasst Rechenleistung genauso wie Netzwerkkapazitäten.

Auf diesem Wege kann das unternehmenseigene Rechenzentrum erheblich entlastet werden, da es die digitale Infrastruktur nicht mehr alleine tragen muss – selbst Infrastrukturen ohne eigenen physischen Server sind realisierbar. Damit entfallen nicht zuletzt die Kosten für Anschaffung und Wartung der ansonsten notwendigen Hardware.

Platform-as-a-service (PaaS) schafft die Arbeitsumgebung im engeren Sinne. Dazu gehören beispielsweise Betriebssysteme, Datenbanken und Anwendungen.

Der große Vorteil besteht unter anderem darin, dass die bereitgestellten Applikationen immer in der aktuellsten Version vorliegen. Die Entwicklung übernimmt dabei der Cloud-Provider, das Unternehmen selbst spart dadurch Zeit und Geld. Da sich die Anwendungen außerdem in ihrem Umfang ganz an die individuellen Bedürfnisse der Nutzer anpassen lassen, können auch damit freigewordene Ressourcen an anderer Stelle eingesetzt werden.

Beide Ansätze bedeuten in ihren jeweiligen Bereichen Einsparungspotenziale für die Unternehmen, da wichtige und arbeitsintensive Aufgabenbereiche ausgelagert werden können. Die virtuelle Infrastruktur bietet außerdem ein hohes Maß an Flexibilität für die Ausgestaltung und die Ressourceneinteilung.

Sowohl IaaS als auch PaaS können IT-Infrastrukturen in Unternehmen verschiedenste Möglichkeiten bieten, um die gewünschten Leistungsanforderungen – stabil, sicher, flexibel, agil, schnell – zu erreichen. Das gilt für unterschiedliche Anwendungsgebiete, von der Datenanalyse über E-Commerce, Digital Marketing und CRM bis hin zu IoT-Lösungen und Content Management für Online-Portale.

Eine vollständige Umstellung auf Cloud-Services ist dabei gar nicht zwingend notwendig. Stattdessen können Unternehmen sich über die für sie interessantesten Anwendungsmöglichkeiten an die Thematik herantasten.

In Zukunft wird der Umgang mit Cloud-Lösungen aber mit großer Wahrscheinlichkeit auf breiterer Ebene stattfinden. Obwohl Cloud Computing nicht ganz ohne Nachteile ist und gerade bei den Themen Datenschutz und Performanceabhängigkeit von der Internetverbindung kritisch betrachtet werden muss.

Hybrid Cloud und hyperkonvergente Infrastrukturen

Cloud-Konzepte sind zwar einer der bestimmenden Trends bei der Entwicklung moderner digitaler Infrastrukturen, aber längst nicht die einzigen. Dass verschiedene Cloud-Modelle in Hybrid Clouds aufgehen, unterstreicht aber nochmals den Stellenwert dieser Technologie.

Die Idee hinter hybriden Cloud-Lösungen besteht darin, möglichst viele Vorteile zu erhalten, ohne gleichzeitig die Nachteile in Kauf nehmen zu müssen:

  • Public Clouds bieten die oben beschriebene Flexibilität, wie sie in IaaS- und PaaS-Ansätzen zum Tragen kommt.
  • Private Clouds hingegen versprechen das Maß an Datensicherheit, die in einer Public Cloud nicht unbedingt gewährleistet werden können.
  • Kombiniert werden beide Modelle mit traditioneller Infrastruktur. Diese bindet zwar mehr Ressourcen als eine reine Cloud-Lösung, auf der anderen Seite bleiben Unternehmen so unabhängiger von den Providern.

Insgesamt wird die Infrastruktur dadurch komplexer, vor allem beim Verwaltungsaufwand. Das wirkt sich unter Umständen auf die Effizienz der Arbeitsprozesse und Sicherheitsbelange aus, die eigentlich auf diesem Weg umgangen werden sollten.

Deshalb werden beispielsweise hyperkonvergente Infrastrukturen (Hyper Converged Infrastructures) zunehmend zu einer Alternative. Diese versprechen eine weitreichende Vereinfachung der Infrastruktur, bei der Rechenleistung, Speicher und Netzwerk als virtuelle Ressourcen bereitgestellt und von einer einzigen Management-Lösung verwaltet werden.

Die IT-Infrastruktur wird damit vollständig virtualisiert und unabhängig von der Hardware. Waren derartige Lösungen bis vor einigen Jahren noch aufwändig und teuer – eigene Server-Architekturen und weitere Elemente erforderten hohe Investitionen und den Einsatz von Spezialisten – werden HCI‑Lösungen inzwischen als Plug & Play-Modell angeboten.

Neue Speichertechnologien

Eine Herausforderung für sämtliche digitalen Infrastrukturen bleibt das Speichern von großen, unstrukturierten Datenmengen. Neben den lange Zeit üblichen Methoden Block Storage und File Storage hat sich in den vergangenen Jahren die Objektspeicherung als Möglichkeit für diese Aufgabe etabliert.

Insofern ist Object Storage keine gänzlich neue Technologie, sie hat aber enorm an Bedeutung gewonnen. Denn die Beschreibung von Daten als Objekte – unter anderem mit Hilfe der Meta-Daten – vereinfacht die Speicherung, gerade bei großen Datenmengen. Dienste wie Dropbox oder Google Docs haben das vorgemacht.

Unkomplizierter lässt sich prinzipiell auch der Zugriff auf die einzelnen Objekte in einer Cloud-Umgebung gestalten. Da dieser über das Internet geschieht, können mehrere Nutzer gleichzeitig auf die Objekte zugreifen. Dazu ist Object Storage bestens geeignet für das Erstellen von Backups und die Archivierung von Daten. Gegenüber anderen Speichertechnologien und NAS‑Infrastrukturen ist diese Methode daher im Vorteil.

Auch physisch entwickeln sich die Speichermedien weiter, die wichtigste Technologie in dieser Hinsicht sind Flash-Speicher. Diese versprechen deutlich schnellere Verarbeitungsgeschwindigkeiten im Vergleich zu magnetischen Festplatten.

Das macht Flash Storage zu einer attraktiven Alternative in vielen Anwendungsgebieten. Etwa dort, wo es um die Verarbeitung von vielen Daten geht, die möglichst in Echtzeit ablaufen soll – von der Datenanalyse bis zum Maschinenlernen bieten sich Unternehmen zahlreiche Einsatzmöglichkeiten für All-Flash-Arrays.

Digitale Infrastrukturen als Herausforderungen

Für Unternehmen, unabhängig von ihrer Größe, bestehen also weiterhin viele Handlungsfelder in Bezug auf den Aufbau zukunftsfähiger digitaler Infrastrukturen. Im Kern müssen überall wachsende Datenmengen gemanagt und die Voraussetzungen dafür geschaffen werden. Die verschiedenen digitalen und technologischen Trends eröffnen individuelle Möglichkeiten, um sich gemäß den speziellen Anforderungen im eigenen Unternehmen passgenau aufzustellen.

Dabei ist es nicht mehr zwingend notwendig, die IT grundsätzlich alleine aufzubauen. Die meisten Dienste lassen sich auslagern. Das geht zwar zu Lasten der Unabhängigkeit, reduziert aber beispielsweise gleichzeitig Investitionen in Hard- und Software.

Unerlässlich ist jedoch die Auseinandersetzung mit einer möglichen digitalen Strategie, die einerseits den Bedarf erfasst und andererseits langfristige Ziele definiert. Aufbauen darauf lässt sich eine digitale Infrastruktur errichten, die bestmöglich zum Unternehmen passt und diesem ausreichend Flexibilität lässt, um neue Trends und Entwicklungen schnell integrieren zu können.

Diese Artikel könnten Sie auch interessieren:

Highspeed-Pivot: Wie POLARIS die Bundeswehr für sich gewann

Ein Bremer NewSpace-Start-up baut für die Bundeswehr das Raumflugzeug der Zukunft. Mit seinem revolutionären Antrieb sticht POLARIS dabei sogar die US-Konkurrenz aus und fungiert zugleich als Eisbrecher für die deutsche DeepTech-Szene.

Wenn Alexander Kopp über die Ostsee blickt, sieht er nicht nur Wasser, sondern die Zukunft der europäischen Souveränität. Während in Berlin oft über die Trägheit der Beschaffungswesen geklagt wird, lässt der Gründer von  POLARIS Raumflugzeuge Fakten sprechen – oder besser gesagt: Triebwerke heulen.

Das DLR-Spin-off schafft gerade, woran Konzerne seit Jahrzehnten scheitern: Ein Raumflugzeug zu bauen, das wie ein normaler Airliner startet, aber die Leistung einer Rakete besitzt. Und noch etwas ist ungewöhnlich in der deutschen Start-up-Landschaft: Der erste große Kunde, der die Bremer „Tüftler“ finanziert, ist kein Risikokapitalgeber aus dem Silicon Valley, sondern das Beschaffungsamt der Bundeswehr.

Der Traum vom Aerospike

Was das Team um den ehemaligen DLR-Ingenieur Kopp antreibt, ist der Abschied von der teuren Einweg-Mentalität der Raumfahrt. Seine Strategie ist eine radikale Flucht nach vorn: „Wenn wir im Wettbewerb bestehen wollen, uns vielleicht sogar an die Spitze setzen wollen, müssen wir die Raketen überspringen“, erklärte Kopp gegenüber dem Magazin 1E9. „Wir müssen direkt neue, bessere Konzepte umsetzen. Keine Raketen, sondern Raumflugzeuge.“

Der technologische Schlüssel, um diese Vision Realität werden zu lassen, ist das sogenannte Linear Aerospike-Triebwerk. Es gilt als der „Heilige Gral“ der Raketentechnik, an dem sich schon die NASA in den 90er Jahren die Zähne ausbiss. Das Problem herkömmlicher Raketendüsen ist ihre Glockenform – sie sind physikalisch bedingt entweder nur am Boden oder im All effizient, nie beides gleichzeitig.

Das Aerospike-Triebwerk hingegen ist ein technologisches Chamäleon: Durch seine offene, stachelförmige Bauweise passt sich der Abgasstrahl automatisch dem Luftdruck an. Es arbeitet auf dem Rollfeld genauso effizient wie im Vakuum. Dass das nicht nur graue Theorie ist, bewies Polaris im Oktober 2024: Mit dem Demonstrator „MIRA II“ gelang dem Start-up über der Ostsee die weltweit erste Zündung eines solchen Triebwerks im Flug.

Bootstrapping in Feldgrau

Diese Mischung aus „Rapid Prototyping“ – also dem schnellen Bauen, Testen und Verbessern – und technologischer Exzellenz kam genau zur richtigen Zeit für die Strategen der Bundeswehr. Berührungsängste mit dem Uniformträger hat der Gründer dabei nicht, im Gegenteil. „Wenn man sich die Historie der Raumfahrt anschaut, kamen die Durchbrüche meist direkt oder indirekt durch das Militär“, ordnete Kopp die Zusammenarbeit im Business Insider pragmatisch ein.

Denn beim Militär treibt man das Thema „Responsive Space“ voran. Das Szenario ist so simpel wie bedrohlich: Im Konfliktfall werden eigene Aufklärungssatelliten zerstört oder geblendet. Mit dem System von POLARIS, dessen finales Modell „Aurora“ ab 2026 produziert werden soll, könnte Deutschland binnen 24 Stunden Ersatz-Satelliten in den Orbit schießen. Und zwar von jedem normalen Flughafen aus, ohne auf verwundbare Startrampen angewiesen zu sein. Für POLARIS wurde das Militär so vom reinen Geldgeber zum strategischen Anker-Kunden, der dem Start-up den nötigen „Runway“ verschafft – finanziell wie physisch.

Ein Eisbrecher für die deutsche DeepTech-Szene

POLARIS operiert dabei längst nicht mehr im luftleeren Raum. Der Erfolg der Bremer sendet ein Signal in den Markt, das weit über das eigene Unternehmen hinausstrahlt: Der Staat ist bereit, in junge High-Tech-Firmen zu investieren, wenn die Technologie „Dual-Use“ ist, also zivil und militärisch genutzt werden kann.

Davon profitieren Start-ups wie das Münchner Unternehmen OroraTech, deren Waldbrand-Satelliten im Ernstfall schnell ersetzt werden müssten – eine perfekte Fracht für Polaris. Auch im Bereich der Datenverarbeitung entstehen Synergien: Wenn ein Hyperschall-Flieger Terabytes an Aufklärungsdaten sammelt, braucht es KI-Lösungen von Firmen wie dem Defense-Einhorn Helsing, um diese Informationen in Echtzeit auszuwerten. POLARIS wirkt hier wie ein Eisbrecher, der validiert, dass „Made in Germany“ auch im neuen „Space Race“ eine Währung ist.

Denn die Konkurrenz schläft nicht. In den USA pumpen das Pentagon und die Air Force Millionen in Wettbewerber wie Hermeus oder Stratolaunch, und China arbeitet mit Hochdruck am Projekt „Tengyun“. Doch während im Silicon Valley oft noch an Simulationen gefeilt wird, haben die Bremer mit ihrem fliegenden Aerospike-Triebwerk einen Vorsprung, der sich mit Geld allein schwer aufholen lässt. Aus der visionären Idee in einem Bremer Büro ist ein Projekt von nationaler Tragweite geworden. Wenn Alexander Kopps Plan aufgeht, schauen die Amerikaner beim nächsten Wettlauf ins All nicht nach oben, sondern in den Rückspiegel.

Globaler Wettbewerb: Polaris vs. US-Konkurrenz

Merkmal

Polaris Raumflugzeuge (Deutschland)

Hermeus (USA)

Stratolaunch (USA)

Haupt-Fahrzeug

Aurora (in Entwicklung)

Quarterhorse (Demo) / Darkhorse

Talon-A

Start-Methode

Horizontal (Startbahn)

Horizontal (Startbahn)

Air-Launch (Abwurf vom Trägerflugzeug „Roc“)

Antrieb

Linear Aerospike (Rakete) + Turbinen

TBCC (Turbine + Ramjet)

Flüssig-Raketentriebwerk (Konventionell)

Haupt-Mission

Multimission: Satellitenstart (Orbit) + Hyperschall-Test/Aufklärung

Transport: Passagier/Fracht (Point-to-Point) + Militär

Testbed: Zielsimulation & Testplattform für US-Militär

Wiederverwendbar?

Ja (System landet wie Flugzeug)

Ja

Ja (landet gleitend auf Landebahn)

Aktueller Status

Fliegend: Skalierte Demonstratoren (MIRA) erfolgreich getestet.

Boden-Tests: Triebwerkstests erfolgreich, Rolltests ("Taxiing").

Operativ: Talon-A hat bereits motorisierte Hyperschallflüge absolviert.

Finanzierung

Bundeswehr (BAAINBw) & Private Investoren

US Air Force, Pentagon (DIU) & Venture Capital

Private Equity (Cerberus Capital Management)

Diese 10 Start-ups bauen an der Zukunft der AgriFood-Branche

Die deutsche Start-up-Landschaft verzeichnete 2025 ein Rekordhoch bei Neugründungen. Doch gerade im AgriFood-Sektor ist der Weg vom Prototyp zum Marktführer steinig. Kapitalintensive Hardware und strenge Regulatorik bremsen viele aus. Der Growth Alliance Accelerator zeigt, wie Gründer*innen diese Hürden überspringen – und präsentiert zehn Akteure, die auf der Erfolgsspur sind.

Es ist ein Paradoxon: Die Nachfrage nach nachhaltigen Lebensmitteln und effizienter Landwirtschaft ist so hoch wie nie, doch für Gründer*innen und junge Unternehmen in der AgriFood-Branche bleibt der Markteintritt ein Hürdenlauf. Während Software-Start-ups oft mit geringem Kapital skalieren, kämpfen Food- und AgTech-Pioniere mit der „Hardware-Falle“. Sie benötigen teure Produktionsanlagen, Labore und müssen langwierige Zulassungsverfahren (z.B. Novel-Food-Verordnung) durchlaufen.

Dennoch ist die Branche im Aufwind: Laut dem Deutschen Startup Monitor und aktuellen Zahlen des Startup-Verbands stiegen die Gründungszahlen 2025 um beachtliche 29 Prozent. Das Kapital ist da, doch es fließt selektiv. Investor*innen suchen heute keine reinen Ideen mehr, sondern validierte Geschäftsmodelle mit technologischem Tiefgang (DeepTech). Genau hier setzte das Finale des Growth Alliance Accelerator 2025 am 28. Januar 2026 in Frankfurt/Main an.

Brückenschlag zwischen Acker und Finanzwelt

Initiiert vom TechQuartier und der Landwirtschaftlichen Rentenbank, hat sich der Accelerator als Schmiede für die „Scale-up“-Phase etabliert. Vier Monate lang wurden zehn Start-ups, die bereits eine Nutzer*innenbasis vorweisen konnten, fit für die nächste Finanzierungsrunde gemacht.

Das Programm adressierte genau die Pain Points der Branche: Verhandlungstaktik, Rechtsfragen und vor allem den Zugang zu Kapital. Ein Highlight war das Investor Dinner im November 2025, bei dem die Gründer*innen direkten Zugang zu Risikokapitalgeber*innen erhielten – in der aktuellen Marktphase ein entscheidender Wettbewerbsvorteil.

Die „Class of 2025“: Wer die Transformation treibt

Die zehn Absolvent*innen decken die gesamte Wertschöpfungskette ab – vom Boden über das Labor bis zum Supermarktregal. Hier ein Blick auf die Köpfe hinter den Innovationen:

1. High-Tech auf dem Acker: Robotik und Daten

Die Digitalisierung der Landwirtschaft (Smart Farming) ist der stärkste Hebel für mehr Effizienz.

Paltech GmbH

Die Brüder Felix und Florian Schiegg gründeten 2022 Paltech zusammen mit Jorge Decombe im Allgäu. Ihr autonomer Roboter für chemiefreie Unkrautbekämpfung im Grünland ist eine Antwort auf strengere Pestizid-Gesetze und Personalmangel.

Bacchus Software GmbH

Das 2023 gegründete Start-up bacchus Weinbau-Software um das Trio Maximilian Dick, Julian Herrlich und Philipp Bletzer digitalisiert den Weinbau. Ihre Software ersetzt das händische Fahrtenbuch und koordiniert die komplette Weinbergsarbeit.

Agrario Energy

Die Energiewende macht Landwirt*innen zu Energiewirt*innen. Seit 2023 bieten die Gründer Alexander von Breitenbach und Chris Weber mit Agrario Energy eine unabhängige Vergleichsplattform, die Flächeneigentümer mit Betreiber*innen von Erneuerbare-Energien-Anlagen zusammenbringt.

2. Deep Tech & Sicherheit: Das Labor als Wächter

Lebensmittelsicherheit wird durch globale Lieferketten immer komplexer. Hier setzen wissenschaftsbasierte Ausgründungen an.

NanoStruct GmbH

NanoStruct wurde 2021 als Spin-off der Universität Würzburg gegründet. Das Team nutzt Nanotechnologie, um gefährliche Bakterien in Lebensmitteln in Minuten statt Tagen aufzuspüren.

SAFIA Technologies

Gegründet 2020 von Timm Schwaar (aus der Bundesanstalt für Materialforschung), entwickelt das Berliner Start-up SAFIA Technologies Schnelltests für Mykotoxine (Schimmelpilzgifte). Ihre Technologie ermöglicht Laborqualität im Schnelltest-Format.

Landman.Bio

Das noch junge Unternehmen (Gründung 2023) Landman.Bio nutzt Bakteriophagen (Viren, die Bakterien fressen) als natürliche Waffe gegen Pflanzenkrankheiten – eine dringend benötigte Alternative zu Antibiotika und klassischen Pestiziden in der Nutzpflanzenzucht.

3. Sustainability & Climate: Kohlenstoff als Währung

CO2-Tracking ist kein Marketing-Gimmick mehr, sondern ökonomische Notwendigkeit.

CinSOIL

Das 2024 in Berlin gegründete CinSOIL-Team um Dr. Giorgi Shuradze, Dr. Antonella Succurro und Dr. Tavseef Shah kommt aus der Wissenschaft. Ihr KI-Tool nutzt Satellitendaten, um Bodenkohlenstoff zu erfassen. Das ermöglicht Agrarunternehmen, Dekarbonisierung nicht nur zu behaupten, sondern zu beweisen.

Niatsu

Gegründet 2023 von Marius Semm und Jakob Tresch in Zürich, adressiert Niatsu die Lebensmittelindustrie. Ihre Software berechnet den Product Carbon Footprint (PCF) automatisiert und kostengünstig, was gerade für den Mittelstand entscheidend ist.

4. Future Food

Was wir morgen essen (und trinken).

VANOZZA

Eines der etabliertesten Start-ups der Runde. Gegründet 2019 von Nico Hansen in Hamburg, hat sich Vanozza mit fermentierten Käsealternativen auf Cashew-Basis einen Namen gemacht und arbeitet nun an der „zweiten Generation“ ihrer Produkte.

food42morrow/JUMA

Die Frankfurter Gründer Raoul und Max Kammann sowie Carlos Lopez Granado gründeten die GmbH bereits 2020 und brachten 2022 ihre Marke JUMA (Tee-Eistees auf Guayusa-Basis) auf den Markt. Sie bedienen den Trend zu „Functional Food“.

Fazit

Die AgriFood-Start-ups des Abschlussjahrgangs des Growth Alliance Accelerators 2025 haben die Phase der reinen Ideen-Findung bereits eindrucksvoll gemeistert. Jetzt geht es um Skalierung, industrielle Anwendung und messbaren Impact. Programme wie die Growth Alliance sind dabei der Katalysator, der wissenschaftliche Exzellenz mit dem nötigen Geschäftssinn verbindet.

to teach: Vom KI-Hype zur Schulinfrastruktur

Wie das 2022 gegründete EdTech to teach die Lücke zwischen Chatbot und Klassenzimmer schließt.

Vor drei Jahren begann mit dem öffentlichen Zugang zu generativer künstlicher Intelligenz ein weltweiter Hype, der auch vor den Schultoren nicht haltmachte. Doch im Bildungsmarkt entscheidet sich derzeit, ob die Technologie tatsächlich Produktivität schafft oder in einer digitalen Sackgasse endet. Das Hamburger EdTech to teach liefert hierzu eine Blaupause: Was 2022 als Experiment begann, hat sich innerhalb von drei Jahren zu einer Arbeitsplattform für hunderttausende Lehrkräfte entwickelt.

Das Problem: US-Tools verstehen deutsche Schulen nicht

Als generative KI erstmals verfügbar wurde, wirkte ihr Einsatz im Bildungsbereich naheliegend. Doch der Blick auf die internationale Konkurrenz zeigt das Dilemma: Während US-Platzhirsche wie MagicSchool AI oder Diffit den Markt mit hunderten Mikro-Tools fluten und technisch beeindrucken, fehlt ihnen der kulturelle Fit. „Einfach nur Texte aus ChatGPT zu kopieren, löst kein einziges Problem von Lehrkräften“, erklärt Felix Weiß, Co-Founder und CEO von to teach.

Die Diskrepanz zwischen dem Versprechen der KI und dem tatsächlichen Schulalltag war groß. US-Lösungen scheitern oft an spezifischen deutschen Lehrplänen oder liefern reine Multiple-Choice-Formate, die hierzulande kaum Anwendung finden. Lehrkräfte benötigten keine unstrukturierten Textwüsten, sondern didaktisch saubere, lehrplankonforme und sofort einsetzbare Materialien. Genau hier setzte das 2022 von Felix Weiß und Marius Lindenmeier gegründete Unternehmen an.

Der Pivot: Datenschutz als Burggraben

Der entscheidende Wendepunkt kam 2023. Das Start-up vollzog einen Strategiewechsel (Pivot) weg von einer SaaS-Lösung für Verlage hin zu einer direkten Plattform für Lehrkräfte. Anstatt Nutzer*innen mit freien Eingabefeldern (Prompts) allein zu lassen, entwickelte das Team feste Arbeitsblattvorlagen. Dies wurde zum entscheidenden Wettbewerbsvorteil gegenüber internationalen Anbietern: Während diese oft an der strikten DSGVO scheitern, bietet to teach durch Serverstandorte in der EU und Rechtssicherheit eine Lösung, die Schulträger akzeptieren.

Dabei mussten technische Kinderkrankheiten überwunden werden: Frühe KI-Modelle „halluzinierten“ Fakten. To teach reagierte mit der systematischen Integration von Quellen und profitierte zugleich von der rasanten Evolution der Sprachmodelle.

Skalierung im Ökosystem gegen nationale Konkurrenz

Der Markt nahm die Lösung schnell an: Im Januar 2023 meldete sich der erste Nutzer an, bis Ende des Jahres waren es laut Unternehmen bereits knapp 16.000 Lehrkräfte. Das Jahr 2024 markierte dann den Übergang vom Start-up zur Plattform: Durch die Übernahme von fobizz (101skills GmbH) wurde to teach Teil eines größeren Bildungsökosystems. Die Gründer blieben als Geschäftsführer an Bord.

Dieser Schritt war strategisch überlebenswichtig in einem sich konsolidierenden Markt. Einerseits gegenüber agilen Herausforderern, da Konkurrenten wie schulKI, Teachino, KIULY oder Kuraplan zum Teil aggressiv um Landeslizenzen kämpfen bzw. auf dem Markt für KI-gestützte Unterrichtsplanung und Materialerstellung durchgestartet sind.

Andererseits war der Schritte in Hinblick auf etablierte Verlage notwendig. Denn Häuser wie Cornelsen ziehen inzwischen mit eigenen KI-Assistenten nach, sperren ihre Inhalte jedoch oft in geschlossene Systeme, d.h. binden sie oft an die eigenen Verlagswerke.

Durch die erfolgreiche Integration in fobizz ist to teach kein isoliertes Insel-Tool mehr, sondern profitiert von bestehenden Landesrahmenverträgen und einem riesigen Vertriebsnetz. Die Nutzer*innenzahlen explodierten förmlich auf über 140.000 Lehrkräfte bis Ende 2024, so die Angaben von to teach.

Status Quo 2025: KI als neue Infrastruktur

Heute, im dritten Jahr nach der Gründung, hat sich der Fokus erneut verschoben. To teach versteht sich inzwischen als Arbeitsinfrastruktur. Die Zahlen unterstreichen diesen Anspruch: Nach Angaben von to teach nutzen über 300.000 Lehrkräfte die Plattform, und mehr als 4.000 Schulen sind angebunden. Das bedeutet: Millionen von Inhalten wurden so bereits KI-gestützt vorbereitet.

Das Unternehmen treibt nun den systematischen Schulvertrieb voran. Damit beweisen EdTechs wie to teach, dass sich Qualität und Personalisierung im sonst oft als innovationsresistent geltenden Bildungsmarkt skalieren lassen.

Für CEO Felix Weiß ist die Diskussion über das „Ob“ längst beendet: „Die Frage ist nicht mehr, ob KI im Klassenzimmer ankommt, sondern, wie und auf welche Weise sie dort wirklich hilft.“

Report: Inside Germany’s EnergyTech Market

Aktuelle Ein- und Ausblicke für Gründer*innen und Start-ups im EnergyTech-Markt.

EnergyTech gehört in Deutschland zu den spannendsten, aber auch herausforderndsten Märkten für Gründer*innen. Die Kombination aus technologischer Innovation, wirtschaftlichem Potenzial und der Dringlichkeit, das Energiesystem klimaneutral zu gestalten, schafft enorme Chancen. Gleichzeitig ist die Eintrittsbarriere hoch, denn der deutsche Energiemarkt ist einer der komplexesten und am stärksten regulierten weltweit.

Laut der Internationalen Energieagentur werden im Jahr 2025 weltweit rund 2,1 Billionen Euro in saubere Energien investiert. Damit übertreffen die Investitionen in erneuerbare Energien erstmals die in fossile Brennstoffe deutlich. Deutschland spielt dabei eine zentrale Rolle, denn kein anderes Land in Europa verfügt über eine vergleichbare Durchdringung mit erneuerbaren Energien. Diese Vorreiterrolle macht den Markt attraktiv, aber auch kompliziert.

Gründer*innen, die in diesem Umfeld aktiv werden, müssen verstehen, dass Erfolg hier weniger von reiner Technologie abhängt, sondern von der Fähigkeit, sich in einem vielschichtigen System aus Regularien, Netzstrukturen und politischen Rahmenbedingungen zu bewegen. Es reicht nicht, eine gute Idee zu haben. Entscheidend ist, wie diese Idee in ein System passt, das auf Stabilität, Versorgungssicherheit und langfristige Planung ausgelegt ist.

Deutschlands Energiemarkt zwischen Stabilität und Veränderung

Der deutsche Energiemarkt gilt als hoch reguliert, gleichzeitig aber auch als offen für neue Akteur*innen. Wer hier tätig werden will, findet klar definierte Wege, um als Energieversorger*in zugelassen zu werden. Doch der Weg dorthin ist gesäumt von Genehmigungen, Netzanschlussverfahren und Förderbedingungen.

Die Stabilität des Systems steht über allem. Jede Veränderung im Netz kann weitreichende Folgen haben, weshalb die Regulierung streng überwacht wird. Netzbetreiber*innen müssen ständig das Gleichgewicht zwischen Erzeugung und Verbrauch sichern, um Versorgungsstörungen zu vermeiden. Das führt dazu, dass Innovationen nur schrittweise eingeführt werden können.

Hinzu kommt die dezentrale Struktur des Energiesystems. Deutschland hat den Umbau seiner Energieversorgung regional organisiert, was zu einer Vielzahl von kleinen Akteur*innen führt. Ob Solaranlagen auf Privathäusern, Windparks in ländlichen Regionen oder Batteriespeicher in Städten, alle müssen an das öffentliche Netz angeschlossen werden. Dieses Netz ist die Lebensader des Systems, aber gleichzeitig ein Flaschenhals. Jede neue Installation benötigt einen Netzanschluss, und die Wartezeit kann sich über mehrere Jahre erstrecken.

Diese Verzögerungen sind eine der größten Herausforderungen für Start-ups. Klassische Wachstumsmodelle, die auf schnelle Skalierung ausgelegt sind, stoßen hier an ihre Grenzen. Gründer*innen müssen lernen, mit langen Planungszeiträumen zu arbeiten und ihre Finanzierungsstrategie darauf abzustimmen. Softwarelösungen können helfen, Prozesse zu vereinheitlichen und Transparenz zu schaffen. Doch auch hier gilt: Der deutsche Markt lässt sich nicht einfach durch Technologie beschleunigen. Erfolg entsteht durch Anpassungsfähigkeit, Vertrauen und Systemverständnis.

Innovation im System statt Disruption von außen

Viele Start-ups treten mit dem Ziel an, Märkte zu verändern oder bestehende Strukturen zu durchbrechen. In der Energiebranche stößt dieser Ansatz jedoch schnell an seine Grenzen. Das Energiesystem ist keine klassische Konsumlandschaft, sondern Teil der kritischen Infrastruktur. Es versorgt Millionen Menschen und Unternehmen mit Strom, Wärme und Mobilität. Jede Veränderung muss sorgfältig integriert werden, um Stabilität zu gewährleisten.

Statt auf radikale Umbrüche zu setzen, braucht es eine Haltung der systemischen Innovation. Erfolgreiche EnergyTech-Unternehmen arbeiten mit dem System, nicht gegen es. Sie schaffen Lösungen, die bestehende Prozesse verbessern und den Übergang zur Klimaneutralität erleichtern. Unternehmen wie Gridx, EV.Energy, Enspired, Reev oder Thermondo zeigen, wie das funktionieren kann. Sie haben ihre Geschäftsmodelle so aufgebaut, dass sie technologische Exzellenz mit regulatorischer Konformität und gesellschaftlicher Akzeptanz verbinden.Für Gründer*innen bedeutet das, sich früh mit Netzbetreiber*innen, Behörden und Installationsbetrieben zu vernetzen. Der Aufbau von Vertrauen ist im Energiesektor ein strategischer Vorteil. Wer die Abläufe in Kommunen, Stadtwerken und öffentlichen Einrichtungen versteht, kann die langen Vertriebszyklen besser steuern und Pilotprojekte realistisch planen.

Warum gute Ideen im Energiemarkt oft scheitern

Die Gründe für das Scheitern von EnergyTech-Start-ups liegen selten in der Technologie. Viel öfter sind es strukturelle oder strategische Fehler. Der Verkauf an Energieversorger*innen oder kommunale Betriebe dauert oft mehrere Jahre. Wer in dieser Zeit nicht über ausreichend Kapital und Geduld verfügt, läuft Gefahr, aufzugeben, bevor der Markteintritt gelingt.

Ein weiterer kritischer Punkt ist die Zusammensetzung des Teams. In vielen Fällen sind Teams stark technisch geprägt, während Marktverständnis, politische Kompetenz und regulatorisches Wissen fehlen.

Auch die Wahl der Investor*innen spielt eine entscheidende Rolle. Kapitalgeber*innen, die nur finanzielle Rendite erwarten, sind im Energiemarkt selten die richtige Wahl. Wichtiger sind Investor*innen, die strategischen Netzwerke öffnen, Kontakte zu Stadtwerken oder Netzbetreiber*innen vermitteln oder bei der Skalierung unterstützen. Eine gut strukturierte Cap Table mit klaren Verantwortlichkeiten schafft dabei Transparenz und Vertrauen.

Darüber hinaus müssen Gründer*innen ihre Wirkung belegen können. Im Energiemarkt zählt nicht nur der technologische Fortschritt, sondern auch der nachweisbare Beitrag zur Dekarbonisierung. Wer den Carbon Return on Investment klar beziffern kann, wer Pilotprojekte erfolgreich umsetzt und belastbare Daten liefert, überzeugt Kund*innen, Partner*innen und Investor*innen gleichermaßen. Greenwashing hingegen ist ein reales Risiko. Der Markt erkennt schnell, wer nur mit Nachhaltigkeit wirbt, ohne messbare Ergebnisse zu liefern.

Strategien und praxisnahe Tipps für Gründer*innen

Es gibt mehrere zentrale Hebel, mit denen Gründer*innen die typischen Hürden im deutschen Energiemarkt überwinden können. Einer der wichtigsten ist der Aufbau früher Partnerschaften. Kooperationen mit Netzbetreiber*innen, Stadtwerken oder kommunalen Einrichtungen schaffen Glaubwürdigkeit und erleichtern den Zugang zu Genehmigungsprozessen. Wer diese Partnerschaften schon in der Entwicklungsphase aufbaut, versteht die Marktmechanismen besser und kann Projekte effizienter realisieren.

Ebenso entscheidend ist die Zusammensetzung des Teams. Interdisziplinarität ist im Energiesektor kein Luxus, sondern Notwendigkeit. Erfolgreiche Teams vereinen technische, wirtschaftliche und politische Kompetenzen. Sie wissen, wie regulatorische Entscheidungen getroffen werden, welche Förderprogramme relevant sind und wie man Innovationsprojekte in bestehende Strukturen integriert. Ein divers aufgestelltes Team kann Risiken besser einschätzen und Investor*innen überzeugender ansprechen.

Auch die Gestaltung der Cap Table verdient besondere Aufmerksamkeit. Kapitalgeber*innen sollten nicht nur Geld mitbringen, sondern auch strategischen Mehrwert bieten. Kontakte zu Entscheidungsträger*innen, Branchenkenntnis und operative Unterstützung bei Pilotprojekten sind entscheidende Erfolgsfaktoren. Eine transparente Struktur, in der jede Partei klar definierte Rollen hat, fördert Vertrauen und beschleunigt Entscheidungen.

Ein weiterer zentraler Punkt ist die Nachweisbarkeit von Wirkung. Gründer*innen müssen ihren ökologischen und ökonomischen Mehrwert belegen können. Messbare Kennzahlen wie Emissionseinsparungen, Energieeffizienz oder Carbon ROI sind ausschlaggebend, um Glaubwürdigkeit zu schaffen. Pilotprojekte mit belastbaren Ergebnissen überzeugen nicht nur Investor*innen, sondern auch Kund*innen und öffentliche Partner*innen.

Nicht zuletzt braucht es realistische Planung. Genehmigungsprozesse und Netzanschlüsse dauern in Deutschland oft Jahre. Wer dies in der Finanzplanung berücksichtigt und seine Strategie auf gestaffelte Rollouts oder modulare Produktarchitekturen ausrichtet, vermeidet teure Fehlentscheidungen. Skalierung im Energiemarkt bedeutet nicht Geschwindigkeit um jeden Preis, sondern nachhaltiges Wachstum mit stabilem Fundament.

Blick nach vorn: Warum sich Ausdauer lohnt

Trotz aller Hürden bleibt der deutsche Energiemarkt für Gründer*innen besonders attraktiv. Die globalen Trends sprechen eine klare Sprache: Laut der Internationalen Energieagentur (IEA) wird sich die installierte Leistung aus erneuerbaren Energien weltweit bis 2030 voraussichtlich mehr als verdoppeln, angetrieben vor allem durch den rasanten Aufstieg der Solarenergie. Wind- und Speichertechnologien werden ebenfalls stark wachsen, während Start-ups gleichzeitig mit Herausforderungen in Lieferketten, Netzintegration, Finanzierung und politischen Veränderungen umgehen müssen.

Eine aktuelle Zwischenbilanz der Internationalen Agentur für erneuerbare Energien (Irena) zeigt, dass die weltweite neu installierte Leistung 2024 bei rund 582 Gigawatt lag – ein Rekordwert. Gleichzeitig reicht dies nicht aus, um die auf der Uno-Klimakonferenz von Dubai 2023 vereinbarten Ziele zu erreichen, die Kapazität bis 2030 auf 11,2 Terawatt zu verdreifachen. Dazu wären ab sofort jährlich zusätzlich 1.122 Gigawatt nötig. Auch bei der Energieeffizienz hinken die Fortschritte hinterher: Die jährliche Wachstumsrate liegt aktuell bei rund einem Prozent, während vier Prozent notwendig wären.

Für Gründer*innen bedeutet dies, dass die Nachfrage nach innovativen, zuverlässigen und systemgerechten Lösungen weiter steigen wird. Wer sich frühzeitig auf Pilotprojekte einlässt, Netzanschlüsse koordiniert und regulatorische Prozesse kennt, kann einen entscheidenden Vorsprung erzielen. Deutschland bietet durch klare Klimaziele, Förderprogramme und politische Unterstützung zudem ein Umfeld, in dem Innovationen nachhaltige Wirkung entfalten können.

Ausdauer zahlt sich aus, weil die Transformation der Energieversorgung Zeit braucht. Wer heute in Partnerschaften, systemgerechte Lösungen und messbare Wirkung investiert, legt das Fundament für langfristigen Markterfolg. Die Verbindung von Innovation, Skalierbarkeit und nachweisbarem ökologischen Mehrwert wird zum entscheidenden Wettbewerbsvorteil und ermöglicht Gründer*innen, die Energiewende aktiv mitzugestalten.

Der Autor Jan Lozek ist Geschäftsführer von Future Energy Ventures. Als Investor und Wegbereiter der Energiewende unterstützt er Gründer*innen dabei, Technologien für ein klimaneutrales Energiesystem zu entwickeln und fördert innovative Unternehmen.

reltix: Vom Aktenordner zum Algorithmus

Wie das 2025 von Andreas Plakinger, Jan Horstmann und Léon Bamesreiter gegründete Düsseldorfer PropTech-Start-up reltix das angestaubte Image einer Branche poliert.

Hausverwaltungen gelten nicht gerade als Sprintdisziplin. Schwer erreichbare Ansprechpartner, Papierberge und zähe Abläufe prägen das Image einer Branche, in der es an Nachwuchs fehlt und Fristen dennoch gnadenlos ticken. Genau da setzt reltix an und wächst: Im März 2025 gegründet, zählt das Düsseldorfer Start-up inzwischen 2000 Kund*innen.

Gegründet wurde reltix von drei ehemaligen Kommilitonen, die sich an der WHU Otto Beisheim School of Management in Vallendar bei Koblenz kennenlernten: Léon Bamesreiter, Jan Horstmann und Andreas Plakinger. Der Motor für die Gründung war eine große Portion eigener Unzufriedenheit. Bamesreiter kaufte mit 20 Jahren während seines dualen Studiums bei einer Großbank seine erste Wohnung, weitere folgten. Seine Erfahrung mit den Verwaltungen: dicke Ordner, langsame Reaktionen, wenig Transparenz. „Ich hatte das Gefühl, ich werde selbst zum Hausverwalter.“

Weniger Bürokratie und mehr Präsenz am Objekt

Mit dem Gründungsstipendium starteten die Drei eine Umfrage unter über 120 Eigentümer*innen: 87 Prozent gaben an, mit ihrer Verwaltung unzufrieden zu sein. Reltix will diese Unzufriedenheit nicht mit mehr Personal, sondern mit Digitalisierung im Hintergrund beheben. Herzstück ist eine selbst entwickelte Software, die E-Mails und WhatsApp-Nachrichten erfasst, automatisch Tickets anlegt, digitale Unterlagen ausliest und Vorgängen zuordnet. Handwerkeranfragen werden systemgestützt angestoßen, Daten zentral strukturiert. Gleichzeitig setzen die Düsseldorfer auf eine feste Ansprechperson je Immobilie.

Erklärtes Ziel der Gründer: weniger Bürokratie und mehr Präsenz am Objekt. Für diesen Ansatz erhielt das Team gerade eine Zusage zur Forschungszulage des Bundesministeriums für Forschung, Technologie, und Raumfahrt zum weiteren Ausbau der eigenen Software mit einer Projektsumme von 1,3 Millionen Euro.

Jahresendspurt brachte Mandate ...

Den größten Schub spürte reltix im Dezember 2025. Viele Hausverwaltungsverträge enden zum 31. Dezember, gleichzeitig laufen Abrechnungsfristen aus. Wer bis Jahresende keine neue Verwaltung findet, bekommt schnell kalte Füße. In den letzten Wochen des Jahres kamen deshalb laut Unternehmen 500 Mandate kurzfristig hinzu, darunter Neubauprojekte in Langenfeld und Köln. Einige namhafte Banken, Family Offices und größere private Bestandshalter zählt das Unternehmen ebenso zu seinen Kund*innen.

... und Personalaufbau

Das Start-up musste personell nachziehen und stockt zum Februar von 14 auf 17 Mitarbeitende auf. Während viele klassische Verwaltungen über fehlenden Nachwuchs klagen, setzt reltix auf junge Mitarbeitende, Quereinsteiger*innen und bildet selbst aus. Das Unternehmen ist IHK Ausbildungsbetrieb und beschäftigt eine Auszubildende im ersten Lehrjahr. Die 28-Jährige, aus der Ukraine geflüchtet, ist aktuell die älteste im Team. Dazu kommen Quereinsteiger*innen: Ein früherer Maschinenbauingenieur leitet inzwischen die Mietverwaltung, eine Mitarbeiterin aus dem Bankgeschäft arbeitet in der Buchhaltung.

Von Rhein-Ruhr bis an den Main

Neben der Verwaltung großer Objekte bietet das Düsseldorfer PropTech für kleinere Eigentümer*innengemeinschaften mit drei bis acht Einheiten die sogenannte Kompaktverwaltung. Enthalten ist darin eine rechtssichere Abrechnung, die Durchführung von Eigentümer*innenversammlungen sowie größere Sanierungen, während Alltägliches bei den Eigentümer*innen bleibt. Regional liegt der Fokus auf Rhein-Ruhr sowie dem Umfeld Köln Bonn. Frankfurt mit einem weiteren Standort ist als nächster Schritt Richtung Sommer geplant. Düsseldorf soll Hauptsitz bleiben.

Infinite Roots: Hamburger BioTech bringt pilzbasierte Gerichte ins Kühlregal

Das 2018 von Dr. Mazen Rizk, Anne-Cathrine Hutz und Dr. Thibault Godard als Mushlabs gegründete Hamburger Start-up Infinite Roots (ehemals Mushlabs) bringt die Vorteile der Pilzwelt erstmals als eigenständige Hauptzutat ins Kühlregal.

Infinite Roots ist ein forschungsgetriebenes BioTech-Unternehmen aus Hamburg. Seit 2018 entwickelt das Unternehmen (zunächst unter dem Namen Mushlab) neuartige Lebensmittel auf Basis von Pilzen – inspiriert vom Myzel, dem unterirdischen Wurzelgeflecht essbarer Pilze. Durch Fermentation schafft Infinite Roots Produkte, die über bloße Fleischalternativen hinausgehen. Das Ziel ist es, eine neue Kategorie zu etablieren: Lebensmittel, die echtes Umami und wertvolle Nährstoffe liefern, mit kurzen Zutatenlisten auskommen und die Umwelt entlasten.

Mit mehr als 60 Expert*innen aus Biotechnologie, Data, Lebensmittelwissenschaft und Kulinarik will das Team neue Standards für Geschmack, Qualität und Nachhaltigkeit setzen und zeigen, dass die Ernährung der Zukunft nicht Verzicht bedeutet, sondern Vielfalt und Genuss.

Die MushRoots-Produkte des Unternehmens sind keine Fleischimitate, sondern bieten ein eigenständiges, pilzbasiertes Geschmackserlebnis. Sie zeichnen sich durch einen saftigen, herzhaften Biss und ausgeprägte Umami-Noten aus. Die Hamburger setzen dabei auf Speisepilze, kombiniert mit vertrauten, hochwertigen Zutaten. Entsprechend bauen die Produkte auf einer natürlichen Zutatenliste auf und verzichten auf künstliche Aromen, Geschmacksverstärker und Farbstoffe. So entsteht ein Geschmackserlebnis, das an herzhafte Hausmannskost erinnert. Die Produkte lassen sich vielseitig im Alltag, etwa als Hack, Bällchen oder Patties.

„Im Kühlregal sehen Konsument*innen seit Jahren dieselbe Logik: Tierprotein hier, Pflanzenprotein dort“, sagt Philip Tigges, CCO/CFO von Infinite Roots. „Mit MushRoots bringen wir nicht nur eine dritte Option ins Regal, sondern kehren auch zu Lebensmitteln mit einer natürlichen Hauptzutat zurück. Pilze bieten einen herzhaften Geschmack, sind vielseitig, in allen gewohnten Rezepten einsetzbar und können kinderleicht zubereitet werden.“

MushRoots setzt dabei auf eine Proteinquelle mit vergleichsweise geringem ökologischen Fußabdruck. Pilze lassen sich lokal und ressourcenschonend kultivieren. „Wir wollten nie ein weiteres Fleischimitat herstellen, sondern eine eigene Kategorie umami-reicher Pilzprodukte schaffen, die durch Charakter und Geschmack überzeugen“, ergänzt Tigges. „Unser Ziel ist es jetzt, Menschen für Pilzprodukte zu gewinnen, ohne dass sie Fleisch vermissen.“

Jetzt meldet Infinite Roots, dass vier MushRoots-Produkte ab sofort bei REWE Nord in Norddeutschland und Billa Plus in Österreich erhältlich sind und damit eine neue Kategorie an Pilz-Produkten in die Kühlregale Einzug gehalten haben.

Gaming & digitale Medien – eine Perspektive für Start-ups?

Diese Voraussetzungen sollten Gründerinnen und Gründer von Start-ups in der Gamingbranche oder der Gestaltung digitaler Medien mitbringen, um erfolgreich zu sein.

Digitale Start-ups verbinden attraktive Zukunftsperspektiven mit einem geringen Startkapital. Für die digitale Generation aktueller Schul- und Universitätsabgänger stellt sich die Frage, ob ein Einstieg in die Gamingbranche oder die Gestaltung digitaler Medien für die Gründung eines Start-ups ausreichen kann. Solche Perspektiven sind gegeben, die neben ausreichend Kreativität eine fundierte Ausbildung in Computertechnik und Business gleichermaßen voraussetzen.

Indie-Games – eine Perspektive für Entwickler?

Noch vor einigen Jahren war die Gamingbranche als Perspektive für Gründer eher unattraktiv. Die großen, internationalen Studios dominierten die Szene, wobei für Triple-A-Titel längst Tausende von Entwicklern an unterschiedlichen Standorten benötigt wurden. Unter dem Zeit- und Kostengrund vieler Studios sowie der Entlassungswelle der letzten Jahre ist es für immer mehr Developer uninteressant, auf die Anstellung in einem der großen Softwarehäuser zu hoffen.

Die unabhängige Entwicklung von digitalen Medien oder Spielen bleibt jedoch beliebt und kann zur Basis eines Start-ups werden. Immer mehr Gamer wenden sich von den überteuerten, großen Marken der Szene ab und vertrauen auf kleinere Entwickler mit mehr Freiheiten bei der Umsetzung. Selbst die großen Gaming-Plattformen halten regelmäßig eine Auswahl beliebter und neuer Indie-Games für Millionen Nutzer bereit.

Unabhängig von Größe und Art eines Studios bleibt die Gamingbranche international und setzt verschiedene Skills vom Development bis zum erfolgreichen Marketing voraus. Dies alles lässt sich längst in speziell abgestimmten Studiengängen erlernen.

Spielentwicklung der neuesten Generation als Studiengang

Studiengänge wie Games & Immersive Media an der Hochschule Furtwangen erlauben es, einen Bachelor im Gaming-Umfeld zu erlangen und alle relevanten Fähigkeiten für den zukünftigen Berufsweg zu gewinnen. Neben Computer Science und Anwendungen im spielerischen Bereich nehmen Business, Design und Medien als zweiter Bereich einen wesentlichen Stellenwert im Studium ein.

Diese Kombination des bilingualen Studiengangs ergibt Sinn. Schließlich ist nicht jeder kreative Programmierer und Spieleentwickler ein Geschäftsmann, genauso wenig wie Marketer gerne stundenlang mit Quellcode arbeiten. Moderne Studiengänge wie dieser führen beide Welten zusammen und sorgen für eine fundierte Ausbildung, um tiefe Einblicke in beide relevanten Arbeitsfelder zu gewinnen.

Starke Unterstützung für zukünftige Start-ups

Die Hochschule Furtwangen geht mit ihrer Unterstützung weit über den reinen Studiengang hinaus. Bewusst wird angehenden Start-ups unter die Arme gegriffen, die ihre ersten Schritte ins Gaming-Business mit kreativen Spielen und Studienprojekten gehen möchten.

Neben einer umfassenden Beratung auf dem Weg zum eigenen Business werden ein Support für Fördermittel sowie Räumlichkeiten für das gemeinschaftliche Arbeiten an Spielen oder digitalen Medien geboten. Viele Formalitäten und Unsicherheiten, die sich bei Start-ups unabhängig von Branche und Geschäftsfeld ergeben, werden so seitens der Hochschule kompetent und professionell unterstützt.

Für den Einstieg sind Kenntnisse im Gaming-Bereich ideal, die über die reine „Freude am Zocken“ hinausgehen. Kreativität in der Planung und Umsetzung eigener Projekte sollte nachgewiesen werden – anders als die zwingende Notwendigkeit, eine Programmiersprache zu beherrschen.

Sichtbarkeit im digitalen Umfeld entscheidend

Wie bei allen Produkten entscheidet weniger die tatsächliche Qualität, sondern die Sichtbarkeit und eine wirkungsvolle Werbung über Erfolg von Misserfolg von Games. Gerade das Marketing für digitale Produkte ist wegen der hohen Konkurrenz und einer Fülle an Informationen in der digitalen Welt eine immense Herausforderung. Hier eine fachkundige Unterstützung von Anfang an zu erhalten, bewahrt Entwickler und kreative Köpfe davor, grundlegende Fehler zu begehen und frühzeitig den Traum vom Gaming-Job zu begraben.

KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar

Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.

Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.

Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?

Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.

Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.

Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.

Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.

Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.

Schnelles Wachstum kann zu einem Überschuss führen

Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.

Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.

Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.

KI & Bewertungen: Sichtbarkeit in einer neuen Suchrealität

Tipps und To-dos: Wie du dein Bewertungsmanagement strategisch aufsetzt und Sichtbarkeit und Vertrauen im KI-Zeitalter steigerst.

Generative Antworten in Suchmaschinen und Assistenten verändern die Spielregeln der Online-Sichtbarkeit. Nicht mehr nur klassische Rankings entscheiden, sondern die Frage, wem die KI genug vertraut, um es überhaupt zu nennen. Aktuelle, glaubwürdige und inhaltlich konkrete Bewertungen werden dabei zum Schlüsselsignal. Für kleine und mittlere Unternehmen bedeutet das: Bewertungsmanagement ist kein Nice-to-have mehr, sondern ein Pflichtprogramm, das Auffindbarkeit, Auswahl und Conversion spürbar beeinflusst. Im Folgenden erfährst du, wie du dein Bewertungsmanagement strategisch aufsetzen solltest, um Sichtbarkeit und Vertrauen im KI-Zeitalter zu steigern.

Warum Bewertungen jetzt geschäftskritisch sind

KI-Modelle zerlegen Rezensionen in viele kleine Bedeutungseinheiten und ziehen daraus ein konsistentes Bild. Welche Leistung wurde erbracht, an welchem Ort, mit welcher Qualität und für welchen Anlass. Aus den einzelnen Stimmen entsteht so ein Vertrauensprofil, das über bloße Sternesummen hinausgeht. Entscheidend ist nicht die bloße Menge, sondern die Frische und die inhaltliche Dichte der Aussagen. Eine Rezension wie „Schnell geholfen am Sonntag, sehr kompetente Beratung zu Reiseimpfungen“ liefert gleich mehrere Signale. Zeitliche Verfügbarkeit, thematische Expertise und konkreter Nutzen. Genau solche Details erhöhen die Wahrscheinlichkeit, in generativen Antworten aufzutauchen, wenn Menschen in ihrer Nähe nach einer Lösung suchen. Wer regelmäßig neue, authentische und präzise Bewertungen erhält, verschafft der KI verlässliche Hinweise und sichert sich dadurch mehr Sichtbarkeit in genau den Momenten, in denen Entscheidungen vorbereitet werden.

Bewertungsmanagement als Prozess, nicht als Aktion

Wirksam wird Bewertungsarbeit, wenn sie selbstverständlich Teil der täglichen Abläufe ist. Nach dem Kontakt freundlich um Feedback bitten, den Weg zur passenden Plattform so kurz wie möglich machen, interne Zuständigkeiten klar regeln und Reaktionszeiten verbindlich festlegen. Aus diesen scheinbar kleinen Schritten entsteht ein stabiler Rhythmus, der kontinuierlich neue Kund*innenstimmen hervorbringt und der KI immer wieder frische Kontexte liefert. Ein solcher Prozess ist robuster als jede einmalige Kampagne, weil er verlässlich Vertrauen aufbaut und saisonale Schwankungen abfedert. Teams profitieren, wenn sie Zielkorridore definieren, etwa eine bestimmte Zahl neuer Rezensionen pro Woche und wenn sie Fortschritte sichtbar machen. So wird aus gutem Vorsatz ein gelebter Ablauf, der die gesamte Organisation stärkt.

Sprache der Kund*innen wirkt wie natürliches SEO

KI versteht Alltagssprache deutlich besser als Listen isolierter Schlagwörter. Unternehmen gewinnen, wenn sie um freie, aber konkrete Formulierungen bitten, ohne Vorgabetexte und ohne Druck. Eine höfliche Bitte wie: „Wenn es für Sie passt, nennen Sie gern, was Ihnen besonders geholfen hat“ öffnet den Raum für präzise Hinweise auf Leistungen, Erreichbarkeit, Barrierefreiheit oder Schnelligkeit. Solche natürlich entstandenen Details sind für Menschen überzeugend und zugleich für Maschinen gut interpretierbar. Sie zeigen, wofür ein Betrieb tatsächlich steht, und verankern die passenden Begriffe in einem echten Nutzungskontext. Das Ergebnis ist eine Sprache, die Vertrauen schafft und die Auffindbarkeit stärkt, ohne künstlich zu wirken.

Antworten trainieren Vertrauen für Menschen und Maschinen

Jede Reaktion auf eine Bewertung ist ein sichtbares Zeichen von Serviceorientierung und zugleich zusätzlicher Kontext für die KI. Gute Antworten bedanken sich aufrichtig, beziehen sich konkret auf das Erlebte und bieten einen klaren nächsten Schritt an. Bei Kritik zählt ein professioneller Umgang. Das Anliegen nachvollziehen, Verantwortung übernehmen, eine realistische Lösung anbieten und einen direkten Kontaktweg nennen. So entsteht ein Bild von Verlässlichkeit, das Hemmschwellen senkt und Wiederbesuche wahrscheinlicher macht. Die KI erkennt diesen Umgang ebenso und ordnet das Unternehmen eher als vertrauenswürdig ein. Mit der Zeit entsteht ein stabiler Kreislauf aus guter Erfahrung, konstruktiver Reaktion und wachsendem Vertrauen.

Lokaler Content und Social Proof gehören zusammen

Bewertungen entfalten ihre volle Wirkung, wenn sie auf eine solide Informationsbasis treffen. Konsistente Unternehmensdaten, vollständige Leistungsseiten pro Standort, klare Öffnungszeiten inklusive Ausnahmen und eine schnelle, mobil optimierte Webseite erleichtern die Einordnung für Nutzer*innen und Maschine. Wenn ausgewählte Zitate oder Bewertungsschnipsel an relevanten Stellen sichtbar werden, etwa auf der Startseite, in der Buchungsstrecke oder in den häufigen Fragen, entsteht ein schlüssiges Gesamtbild. Der lokale Bezug bleibt klar erkennbar, die Erwartungen sind gut gesetzt, und die nächsten Schritte sind ohne Umwege möglich. So wird aus Social Proof ein handfester Conversion Hebel.

Vom Feedback zur Verbesserungsschleife

Rezensionen sind fortlaufende Marktforschung aus erster Hand. Wer wiederkehrende Themen auswertet, etwa Wartezeiten, Erreichbarkeit oder Bezahloptionen, erkennt schnell die Stellschrauben mit der größten Wirkung. Wichtig ist, die daraus abgeleiteten Verbesserungen konsequent umzusetzen und sichtbar zu machen. Informieren, handeln, erneut um Rückmeldung bitten. Dieser offene Kreislauf wirkt nach innen und nach außen. Mitarbeitende erleben, dass Feedback Veränderungen anstößt, Kund*innen erleben, dass ihre Hinweise ernst genommen werden, und die KI registriert die fortlaufende Pflege der Qualität. Mit jeder Runde werden Erlebnisse besser und Bewertungen stärker, was die Sichtbarkeit weiter erhöht.

Fazit

Sichtbarkeit entsteht heute dort, wo Menschen nach konkreten Lösungen fragen und wo KIs verlässliche Hinweise zu Qualität und Relevanz finden. Unternehmen, die Bewertungen als strategischen, kontinuierlichen Prozess verstehen, erhöhen ihre Chance, in generativen Antworten genannt zu werden und gewinnen genau in den entscheidenden Momenten an Präsenz. Vieles davon ist eine Frage kluger Organisation und klarer Abläufe. Der finanzielle Aufwand bleibt überschaubar, der Nutzen für Auffindbarkeit, Vertrauen und Umsatz ist deutlich spürbar.

Die Autorin Franziska Ortner ist Produktmanagerin bei SELLWERK

Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung

Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.

Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“

Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.

Automatisiertes und datenbasiertes Pflanzenwachstum

Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“

Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.

Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren

Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“

DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau

Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.

GreenTech – der Boom geht zu Ende

Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.

Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.

Der Boom geht zu Ende

„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze.  „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“

Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich.  Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“

Herausforderungen im deutschen GreenTech-Sektor

Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte.  Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“

Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit

„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“

Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“

Politik und Wirtschaft in gemeinsamer Verantwortung

Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“

Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.

Die Top 10 Grafikdesigntrends 2026

Grafikdesign setzt Impulse, um dein Branding aufzufrischen, deine Marke gekonnt zu inszenieren oder deine Zielgruppe persönlich und emotional anzusprechen. Daher gut zu wissen: Diese zehn Grafikdesigntrends werden von den Profis aktuell favorisiert.

2026 wird das Jahr, in dem Grafikdesign Menschlichkeit betont. Während KI im Alltag eine immer größere Rolle spielt, wächst die Sehnsucht nach Echtheit – nach Entwürfen, die berühren. Zu diesem Schluss kommt das Expert*innen-Team von VistaPrint auf Basis der umfassenden Beobachtungen seiner internationalen Freelancer-Community auf 99designs by Vista.

Die zentrale Erkenntnis: Grafikdesign wird wieder deutlich persönlicher. Es zeichnet sich ab, dass sich die Trends weg vom Glatten, hin zum Echten entwickeln. Marken wollen bei ihren Zielgruppen Gefühle wecken und setzen deshalb auf Geschichten statt Marketingbotschaften. So wird Design zur Bühne für Individualität und damit zum wirksamsten Werkzeug, um echte Verbindungen aufzubauen.

„Kleine Unternehmen haben den entscheidenden Vorteil, mutig, eigenwillig und authentisch auftreten zu können – großen Marken fällt das oft schwer,“ weiß Patrick Llewellyn, VP of Digital and Design Services bei VistaPrint. „In unserer laut und unpersönlich gewordenen Welt wirken unperfekte Designs ehrlich. Genau das macht sie so kraftvoll.“

Die Designtrends 2026 holen das Handgemachte ins Digitale, erzählen von kultureller Identität, feiern Unvollkommenheit und lassen Gefühle sichtbar werden. Nicht der Algorithmus, sondern der Mensch steht im Mittelpunkt.

Die Designtrends 2026 im Überblick:

Elemental Folk

Tradition trifft moderne Gestaltung: Inspiriert von regionaler Handwerkskunst und kulturellem Erbe, entstehen warme, ausdrucksstarke Designs mit floralen Mustern, ornamentalen Details und kräftigen Farben. Die Gestaltung wirkt vertraut und zeitgemäß zugleich. Elemental Folk ist ein visueller Rückgriff auf das Ursprüngliche, der die Identität und Herkunft feiert.

Hyper-Individualism

Dieser Trend bringt frischen Wind ins Design. Er setzt auf surreale Bildwelten, spielt mit verzerrten Formen und bricht ganz bewusst mit Konventionen. Die Darstellungen wirken mal verspielt, mal provokant, aber immer individuell. Während viele ihre Gestaltungsprozesse komplett von der künstlichen Intelligenz erledigen lassen, begeistert dieser Stil mit der kreativen Handschrift der Menschen.

Tactile Craft

Stickerei, Stoffstrukturen und handgemachte Details finden ihren Weg zurück ins digitale Design. Was dabei entsteht, fühlt sich fast schon greifbar an: Die visuellen Oberflächen erzeugen eine besondere Tiefe, die den BetrachterInnen Wärme spendet. Zwischen DIY-Charme und nostalgischer Anmutung generiert dieser Trend – als Gegenentwurf zur glatten, oft distanzierten Ästhetik der digitalen Welt – eine emotionale Nähe.

Distorted Cut

Wenn Gestaltung zum Widerstand wird, entstehen visuelle Statements mit Ecken und Kanten. Klassische Collage-Techniken werden neu interpretiert, indem Bilder zerschnitten, Schichten überlagert und Formen fragmentiert werden. Das Ergebnis wirkt roh, rebellisch und voller Energie. Fest steht: Dieser Designstil will nicht gefallen – es geht darum, Haltung zu zeigen.

Candid Camera Roll

Kreative bringen mit diesem Trend das Echte zurück ins Visuelle. Unperfekte Schnappschüsse, Filmkorn, Blitzlicht und spontane Momente wirken persönlich und nahbar. Im Zusammenspiel mit reduzierter Typografie entstehen Designs, die mit ihrer Ehrlichkeit wirken und berühren.

Hyper-Bloom

Manchmal braucht es einen visuellen Rückzugsort – einen Ort zum Durchatmen. Sanfte Verläufe, zarte Blumenmotive und pudrige Pastelltöne entführen in eine Welt zwischen Traum und Realität. Der Stil wirkt wie ein Gegenpol zum hektischen Alltag und öffnet Raum für Leichtigkeit, Optimismus und ein bisschen Tagträumerei.

Digit-Cute

Die Ästhetik bewegt sich zwischen Nostalgie und digitaler Verspieltheit und sorgt vom ersten Moment an für richtig gute Laune. Klare Strukturen treffen auf bunte Pixelgrafiken, niedliche Figuren und kräftige Farben. Der Look versprüht den Charme der frühen Computerspiele und Popkultur. Gerade weil er so verspielt wirkt, ist er gestalterisch besonders raffiniert.

Micro-Industrial

Was früher rein funktional war, wird jetzt zum Gestaltungskonzept. Inspiriert von Verpackungen, technischen Etiketten und Informationsgrafiken bildet sich ein Designstil, der Klarheit feiert. Der gezielte Einsatz von Elementen wie Barcodes, QR-Codes und Rasterstrukturen verleiht den Entwürfen eine rohe, sachliche und zugleich moderne Ästhetik.

Neon Noir

Dunkel, intensiv und voller Spannung – der Stil erinnert an Szenen aus einem Neo-Noir-Film. Knallige Farben, wie elektrisches Rot, treffen auf tiefes Schwarz, kombiniert mit Bewegungsunschärfen und rauen Texturen. Der urbane, energiegeladene Look fällt sofort ins Auge und bleibt lange im Kopf.

Frutiger Aero Revival

Ein Hauch von Zukunft, so wie man sie sich früher vorgestellt hat: Glänzende Oberflächen, sanfte Farbverläufe und fließende Formen knüpfen an die Tech-Ästhetik der frühen 2000er an. Elemente wie Wasser, Himmel oder digitale Pflanzenwelten verleihen den Designs eine fast träumerische Leichtigkeit. Der Stil ist eine liebevolle Rückschau in eine Zeit, in der Technologie noch als Versprechen galt.

Fazit

Design darf wieder fühlen, Haltung zeigen und Ecken haben. Um als Marke aufzufallen, braucht man nicht mehr das glatteste Logo oder das perfekteste Bild, sondern Persönlichkeit, Mut und eine klare Botschaft. 2026 wird das Jahr, in dem Echtheit zählt. Das Beste daran: Es wird kreativ, lebendig und überraschend schön.

Weckruf für (KI-)Start-ups

Zwischen Pflicht und Potenzial: Warum der EU AI Act kein Stolperstein, sondern ein strategischer Hebel ist und wie junge Unternehmen ihn frühzeitig für sich nutzen können.

Spätestens seit der Verabschiedung des AI Acts der Europäischen Union im Jahr 2024 ist klar: Der Einsatz künstlicher Intelligenz (KI) in Europa wird rechtlich geregelt – verbindlich, umfassend und risikobasiert. Für viele Unternehmen, vor allem im Start-up-Umfeld, bedeutet das erst einmal: neue Vorgaben, viel Bürokratie, hoher Aufwand. Doch dieser Eindruck greift zu kurz. Denn der AI Act ist weit mehr als ein Regelwerk zur Risikominimierung; er bietet jungen Unternehmen die Chance, Ethik, Effizienz und Rechtssicherheit von Anfang an in Einklang zu bringen. Wer ihn strategisch klug nutzt, kann sich nicht nur vor teuren Fehlern schützen, sondern auch produktiver, innovativer und vertrauenswürdiger aufstellen.

Ein Weckruf mit Wachstumspotenzial

Der AI Act ist die erste umfassende gesetzliche Regelung weltweit, die den Umgang mit KI verbindlich definiert. Ziel ist es, Vertrauen in KI-Technologien zu schaffen, Risiken wie Diskriminierung oder Manipulation zu minimieren und gleichzeitig die Innovationskraft Europas zu sichern. Je nach Risikoklasse, von minimal über hoch bis unvertretbar, gelten unterschied­liche Anforderungen an Transparenz, Sicherheit und Kontrolle. Was viele dabei übersehen: Der AI Act richtet sich nicht nur an Entwickler*innen, sondern auch an Anwender*innen. Schon wer KI zur automatisierten Lebenslaufanalyse, zur Lead-Bewertung im Vertrieb oder für interne Personalentscheidungen nutzt, kann als Betreiber*in haftbar sein – inklusive Dokumentations- und Prüfpflichten. Seit Februar 2025 gilt zudem eine allgemeine Schulungspflicht für KI-Nutzung, unabhängig von Branche oder Unternehmensgröße.

Start-ups: (Noch) nicht betroffen? Ein Trugschluss

Gerade junge Unternehmen neigen dazu, gesetzliche Regularien auf die lange Bank zu schieben – oft verständlich, wenn Zeit, Geld und personelle Ressourcen knapp sind. Doch genau hier liegt das Risiko: Laut einer Bitkom-Studie haben sich nur rund 3 Prozent der Unternehmen intensiv mit dem AI Act beschäftigt. 25 Prozent wissen gar nichts davon. Ein gefähr­licher Blindflug, nicht nur wegen potenzieller Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des Jahresumsatzes, sondern weil damit auch Chancen verschenkt werden.

Dabei geht es beim AI Act nicht nur um Pflichterfüllung, sondern um Zukunftsfähigkeit. Wer KI nutzt, sei es für Marketing, Kund*innenservice oder Produktentwicklung, muss ihre Auswirkungen verstehen, Risiken identifizieren und Prozesse so gestalten, dass sie nachvollziehbar, fair und sicher bleiben. Für Start-ups, die langfristig skalieren und wachsen wollen, ist das kein Nice-to-have, sondern ein Muss.

Wissensdefizite als Wachstumsbremse

Aktuell setzen nur etwa 17 Prozent der kleinen und mittleren Unternehmen in Deutschland KI im Geschäftsalltag ein. Die Gründe: Über 70 Prozent nennen fehlendes Wissen, 58 Prozent Unsicherheit bei rechtlichen Fragen. Gerade bei Start-ups, deren Geschäftsmodell oft auf digitalen Lösungen basiert, ist diese Zurückhaltung alarmierend. Denn wer das Potenzial von KI nicht erkennt oder falsch einsetzt, verliert nicht nur Zeit, sondern auch Marktchancen. Dazu kommt noch die Sorge vor zukünftigen rechtlichen Einschränkungen, wie 82 Prozent der Anwender*innen generativer KI angeben, 73 Prozent verweisen auf die Datenschutzanforderungen als Hemmnis und 68 Prozent sehen Unsicherheiten durch rechtliche Unklarheiten.

Der Schlüssel liegt ganz klar in der Weiterbildung: Nur wer die Funktionsweise, Stärken und Grenzen von KI-Systemen versteht, kann sie verantwortungsvoll und effizient nutzen. Das beginnt schon bei der bloßen Auseinandersetzung mit dem AI Act: 69 Prozent der Unternehmen brauchen professionelle Hilfe dabei. Das betrifft nicht nur Entwickler*innen oder Tech-Teams, sondern auch Gründer*innen sowie Verantwortliche in Marketing, HR und Customer Support. Der AI Act kann dabei als Orientierung dienen: Er macht transparent, welche Prozesse es zu beachten gilt und wie sich Risiken frühzeitig erkennen und adressieren lassen.

KI im Marketing: Vom Tool zur Strategie

Beispiel: Im Marketing ist KI längst mehr als nur eine Helferin für Textgenerierung oder A/B-Testing. Sie analysiert Zielgruppen, erkennt Kaufmuster, generiert kreative Inhalte und liefert datenbasierte Insights in Echtzeit. Doch viele Marketingverantwortliche gehen mit KI noch zu leichtfertig um oder unterschätzen ihre strategische Wirkung. In modernen Marketingabteilungen dient KI als Beschleuniger, Effizienzmotor und kreativer Sparringspartner.

Doch um diesen Nutzen voll auszuschöpfen, braucht es klare Regeln, Datenqualität und nachvollziehbare Prozesse – genau das, was der AI Act einfordert. Was auf den ersten Blick wie ein regulatorisches Korsett wirkt, ist in Wahrheit ein Innova­tionstreiber: Wer frühzeitig in qualitätsgesicherte Datenprozesse, Modellvalidierung und Feedbackschleifen investiert, steigert nicht nur die Rechtssicherheit, sondern auch die Performance seiner Kampagnen.

Ethik als Wettbewerbsfaktor

Neben Effizienz und Legalität spielt auch Ethik eine zunehmend wichtige Rolle. Nutzer*innen und Kund*innen erwarten von Unternehmen, dass sie KI fair, transparent und verantwortungsvoll einsetzen. Diskriminierende Algorithmen, intransparente Entscheidungen oder Datenmissbrauch können nicht nur rechtliche Konsequenzen haben, sie beschädigen auch das Vertrauen in die Marke. Gerade Start-ups haben hier einen Vorteil: Sie können ethische Leitlinien von Anfang an mitdenken und in ihre Unternehmenskultur integrieren. Das schafft nicht nur Glaubwürdigkeit gegenüber Kund*innen, Investor*innen und Partner*innen – es spart auch spätere Reputationskosten. Studien zeigen: Unternehmen, die KI ethisch reflektiert einsetzen, erzielen höhere Zufriedenheitswerte bei Mitarbeitenden und Kundschaft, und sie sind resilienter gegenüber technologischen Risiken.

Von Anfang an strategisch denken

Für Gründer*innen und junge Unternehmen lautet die Empfehlung daher: Nicht warten, bis der AI Act zum Problem wird, sondern ihn frühzeitig als Chance nutzen, sich professionell aufzustellen. Das bedeutet konkret:

  • Verantwortlichkeiten klären: Wer ist im Unternehmen für KI verantwortlich – technisch, ethisch, rechtlich?
  • Transparente Prozesse etablieren: Wie werden Daten erhoben, verarbeitet und genutzt? Wer prüft Algorithmen auf Verzerrungen?
  • Schulungen anbieten: Alle, die mit KI-Systemen arbeiten, sollten deren Funktionsweise und rechtliche Implikationen kennen.
  • Ethikrichtlinien entwickeln: Wie kann das Unternehmen sicherstellen, dass KI fair, sicher und inklusiv eingesetzt wird?
  • Technologische Standards einhalten: Wer dokumentiert und validiert die eingesetzten Systeme regelmäßig?

Kein Bremsklotz, sondern ein Beschleuniger

Der EU AI Act ist ein Weckruf für Start-ups, die KI nutzen oder dies künftig wollen. Er schafft Klarheit, wo zuvor Unsicherheit herrschte, und definiert Standards, an denen sich junge Unternehmen orientieren können. Wer das ignoriert, riskiert nicht nur Bußgelder, sondern auch seine Wettbewerbsfähigkeit. Wer ihn jedoch proaktiv angeht, positioniert sich als verantwortungsvolle(r) Innovator*in. Der Wandel hat längst be­- gonnen. Jetzt ist die Zeit, ihn bewusst mitzugestalten.

Der Autor Bastian Sens ist Marketing-Experte und Gründer der Beratung & Academy Sensational GmbH