Aktuelle Events
Geschäftsideen Nachhaltigkeit: Wiederverwendbare Coffee-to-go-Becher
Pfandsystem für Kaffeebecher
Jede Stunde landen in Deutschland hunderttausende Kaffee-Einwegbecher im Müll. Um das zu ändern, gründeten Fabian Eckert und Florian Pachaly im September 2016 das Start-up Recup, um im November 2016 mit ihrer nachhaltigen Geschäftsidee ein Becher-Mehrweg-Pilotprojekt in Rosenheim zu starten.
Jede Stunde landen in Deutschland hunderttausende Kaffee-Einwegbecher im Müll. Um das zu ändern, gründeten Fabian Eckert und Florian Pachaly im September 2016 das Start-up Recup, um im November 2016 mit ihrer nachhaltigen Geschäftsidee ein Becher-Mehrweg-Pilotprojekt in Rosenheim zu starten.
Sie möchten selbst ein Unternehmen gründen oder sich nebenberuflich selbständig machen? Nutzen Sie jetzt Gründerberater.de. Dort erhalten Sie kostenlos u.a.:
- Rechtsformen-Analyser zur Überprüfung Ihrer Entscheidung
- Step-by-Step Anleitung für Ihre Gründung
- Fördermittel-Sofort-Check passend zu Ihrem Vorhaben
Diese Artikel könnten Sie auch interessieren:
KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar
Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.
Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.
Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?
Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.
Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.
Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.
Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.
Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.
Schnelles Wachstum kann zu einem Überschuss führen
Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.
Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.
Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.
Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung
Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.
Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“
Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.
Automatisiertes und datenbasiertes Pflanzenwachstum
Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“
Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.
Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren
Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“
DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau
Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.
GreenTech – der Boom geht zu Ende
Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.
Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.
Der Boom geht zu Ende
„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze. „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“
Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich. Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“
Herausforderungen im deutschen GreenTech-Sektor
Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte. Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“
Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit
„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“
Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“
Politik und Wirtschaft in gemeinsamer Verantwortung
Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“
Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.
Die Top 10 Grafikdesigntrends 2026
Grafikdesign setzt Impulse, um dein Branding aufzufrischen, deine Marke gekonnt zu inszenieren oder deine Zielgruppe persönlich und emotional anzusprechen. Daher gut zu wissen: Diese zehn Grafikdesigntrends werden von den Profis aktuell favorisiert.
2026 wird das Jahr, in dem Grafikdesign Menschlichkeit betont. Während KI im Alltag eine immer größere Rolle spielt, wächst die Sehnsucht nach Echtheit – nach Entwürfen, die berühren. Zu diesem Schluss kommt das Expert*innen-Team von VistaPrint auf Basis der umfassenden Beobachtungen seiner internationalen Freelancer-Community auf 99designs by Vista.
Die zentrale Erkenntnis: Grafikdesign wird wieder deutlich persönlicher. Es zeichnet sich ab, dass sich die Trends weg vom Glatten, hin zum Echten entwickeln. Marken wollen bei ihren Zielgruppen Gefühle wecken und setzen deshalb auf Geschichten statt Marketingbotschaften. So wird Design zur Bühne für Individualität und damit zum wirksamsten Werkzeug, um echte Verbindungen aufzubauen.
„Kleine Unternehmen haben den entscheidenden Vorteil, mutig, eigenwillig und authentisch auftreten zu können – großen Marken fällt das oft schwer,“ weiß Patrick Llewellyn, VP of Digital and Design Services bei VistaPrint. „In unserer laut und unpersönlich gewordenen Welt wirken unperfekte Designs ehrlich. Genau das macht sie so kraftvoll.“
Die Designtrends 2026 holen das Handgemachte ins Digitale, erzählen von kultureller Identität, feiern Unvollkommenheit und lassen Gefühle sichtbar werden. Nicht der Algorithmus, sondern der Mensch steht im Mittelpunkt.
Die Designtrends 2026 im Überblick:
Elemental Folk
Tradition trifft moderne Gestaltung: Inspiriert von regionaler Handwerkskunst und kulturellem Erbe, entstehen warme, ausdrucksstarke Designs mit floralen Mustern, ornamentalen Details und kräftigen Farben. Die Gestaltung wirkt vertraut und zeitgemäß zugleich. Elemental Folk ist ein visueller Rückgriff auf das Ursprüngliche, der die Identität und Herkunft feiert.
Hyper-Individualism
Dieser Trend bringt frischen Wind ins Design. Er setzt auf surreale Bildwelten, spielt mit verzerrten Formen und bricht ganz bewusst mit Konventionen. Die Darstellungen wirken mal verspielt, mal provokant, aber immer individuell. Während viele ihre Gestaltungsprozesse komplett von der künstlichen Intelligenz erledigen lassen, begeistert dieser Stil mit der kreativen Handschrift der Menschen.
Tactile Craft
Stickerei, Stoffstrukturen und handgemachte Details finden ihren Weg zurück ins digitale Design. Was dabei entsteht, fühlt sich fast schon greifbar an: Die visuellen Oberflächen erzeugen eine besondere Tiefe, die den BetrachterInnen Wärme spendet. Zwischen DIY-Charme und nostalgischer Anmutung generiert dieser Trend – als Gegenentwurf zur glatten, oft distanzierten Ästhetik der digitalen Welt – eine emotionale Nähe.
Distorted Cut
Wenn Gestaltung zum Widerstand wird, entstehen visuelle Statements mit Ecken und Kanten. Klassische Collage-Techniken werden neu interpretiert, indem Bilder zerschnitten, Schichten überlagert und Formen fragmentiert werden. Das Ergebnis wirkt roh, rebellisch und voller Energie. Fest steht: Dieser Designstil will nicht gefallen – es geht darum, Haltung zu zeigen.
Candid Camera Roll
Kreative bringen mit diesem Trend das Echte zurück ins Visuelle. Unperfekte Schnappschüsse, Filmkorn, Blitzlicht und spontane Momente wirken persönlich und nahbar. Im Zusammenspiel mit reduzierter Typografie entstehen Designs, die mit ihrer Ehrlichkeit wirken und berühren.
Hyper-Bloom
Manchmal braucht es einen visuellen Rückzugsort – einen Ort zum Durchatmen. Sanfte Verläufe, zarte Blumenmotive und pudrige Pastelltöne entführen in eine Welt zwischen Traum und Realität. Der Stil wirkt wie ein Gegenpol zum hektischen Alltag und öffnet Raum für Leichtigkeit, Optimismus und ein bisschen Tagträumerei.
Digit-Cute
Die Ästhetik bewegt sich zwischen Nostalgie und digitaler Verspieltheit und sorgt vom ersten Moment an für richtig gute Laune. Klare Strukturen treffen auf bunte Pixelgrafiken, niedliche Figuren und kräftige Farben. Der Look versprüht den Charme der frühen Computerspiele und Popkultur. Gerade weil er so verspielt wirkt, ist er gestalterisch besonders raffiniert.
Micro-Industrial
Was früher rein funktional war, wird jetzt zum Gestaltungskonzept. Inspiriert von Verpackungen, technischen Etiketten und Informationsgrafiken bildet sich ein Designstil, der Klarheit feiert. Der gezielte Einsatz von Elementen wie Barcodes, QR-Codes und Rasterstrukturen verleiht den Entwürfen eine rohe, sachliche und zugleich moderne Ästhetik.
Neon Noir
Dunkel, intensiv und voller Spannung – der Stil erinnert an Szenen aus einem Neo-Noir-Film. Knallige Farben, wie elektrisches Rot, treffen auf tiefes Schwarz, kombiniert mit Bewegungsunschärfen und rauen Texturen. Der urbane, energiegeladene Look fällt sofort ins Auge und bleibt lange im Kopf.
Frutiger Aero Revival
Ein Hauch von Zukunft, so wie man sie sich früher vorgestellt hat: Glänzende Oberflächen, sanfte Farbverläufe und fließende Formen knüpfen an die Tech-Ästhetik der frühen 2000er an. Elemente wie Wasser, Himmel oder digitale Pflanzenwelten verleihen den Designs eine fast träumerische Leichtigkeit. Der Stil ist eine liebevolle Rückschau in eine Zeit, in der Technologie noch als Versprechen galt.
Fazit
Design darf wieder fühlen, Haltung zeigen und Ecken haben. Um als Marke aufzufallen, braucht man nicht mehr das glatteste Logo oder das perfekteste Bild, sondern Persönlichkeit, Mut und eine klare Botschaft. 2026 wird das Jahr, in dem Echtheit zählt. Das Beste daran: Es wird kreativ, lebendig und überraschend schön.
KI und Selbstreflexion: Was macht KI mit dir?
Wie du innovative KI-Technologie und persönliche Entwicklung strategisch geschickt kombinierst, um dein Start-up nachhaltig zu skalieren.
Künstliche Intelligenz (KI) gilt als Wachstumsbooster. Doch wer dabei nur auf Technik setzt, lässt ein entscheidendes Potenzial ungenutzt – die eigene persönliche Entwicklung. Warum es gerade die Verbindung aus KI und Selbstreflexion ist, die Gründer*innen und Start-ups langfristig erfolgreich macht, liest du hier.
Gründen bedeutet, Entscheidungen unter Unsicherheit zu treffen
Wer ein Start-up aufbaut, bewegt sich im Spannungsfeld von Vision und Verantwortung. Geschäftsmodell, Finanzierung, Teamführung, Produktentwicklung – all das passiert meist parallel und unter enormem Zeitdruck. Technologie wird dabei oft als Hebel gesehen, um schneller und effizienter zu arbeiten. Und das stimmt: Tools, die auf KI basieren, können Prozesse automatisieren, Muster erkennen, Kund*innenbeziehungen vertiefen. Doch Technik allein garantiert keinen Erfolg. Entscheidend ist, wer sie wie einsetzt. Und hier kommt ein oft unterschätzter Faktor ins Spiel: der/die Gründer*in selbst mit den Mustern seiner/ihrer Persönlichkeit.
Jede einzelne Erfahrung, die die Marke rund um eine(n) Gründer*in prägt, kann niemals von einer KI erzeugt werden. Diese kann im zweiten Schritt sachlich analysieren, wie Erlebnisse für zukünftige Prozesse genutzt werden, die dazugehörigen Werte oder Ängste aber stecken in der Person selbst als Fundament.
Markenkern, Werte und Identität – das unsichtbare Fundament des Erfolgs
Jede Marke beginnt mit einer Geschichte, und diese umfasst den Menschen als Dreh- und Angelpunkt. Die Erfahrungen, Werte und Überzeugungen der Gründer*in formen den Kern eines Start-ups weit vor dem ersten Pitchdeck. Während KI dabei helfen kann, diese Identität greifbar zu machen, zu analysieren oder in die Kommunikation zu übersetzen, erzeugen kann sie diese nicht.
Gerade in der frühen Phase entscheidet nicht nur das Produkt über den Erfolg, sondern die Haltung dahinter: Wofür steht das Unternehmen? Welche Werte prägen die Entscheidungen? Welches Bedürfnis treibt den/die Gründer*in auch jenseits der KPIs an? Eine klare Positionierung entsteht nicht im Workshop, sondern im inneren Prozess. Es ist die Fähigkeit zur Selbstreflexion, die hier als Kompass dient:
- Was ist mir wirklich wichtig?
- Was darf sich nie ändern, selbst wenn wir skalieren?
- Was wäre ein Deal, den ich nie eingehen würde – egal wie lukrativ er erscheint?
Wer diesen Markenkern kennt, trifft strategische Entscheidungen konsistenter, kommuniziert authentischer und baut Vertrauen bei Investor*innen, Mitarbeitenden und Kund*innen auf. Und erst dann lohnt sich der Einsatz von KI wirklich, um diese klare Positionierung zum Beispiel zu verstärken, nicht aber zu ersetzen.
KI – mehr als nur Effizienzmaschine
KI hat längst ihren Platz in der Start-up-Welt gefunden. Vom Recruiting über Sales bis hin zum Customer Support. KI-gestützte Tools erleichtern die Arbeit und verschaffen jungen Unternehmen echte Wettbewerbsvorteile:
- Automatisierung: Mithilfe von KI lassen sich zeitintensive Prozesse wie Terminplanung, Rechnungsstellung oder E-Mail-Korrespondenz automatisieren. Das schafft Raum für strategische Aufgaben.
- Personalisierung: Wer seine Kund*innen wirklich verstehen will, profitiert von datenbasierten Insights. KI hilft dabei, Verhalten zu analysieren, Bedürfnisse vorherzusagen und Inhalte gezielt auszuspielen.
- Recruiting: Im „War for Talents“ zählt Geschwindigkeit, ergänzend aber unbedingt auch Qualität. KI-Tools unterstützen dabei, Bewerber*innen effizient zu sichten und unbewusste Bias zu reduzieren.
Richtig eingesetzt, ermöglicht KI mehr Fokus, schnellere Iterationen und datengestützte Entscheidungen. Aber genau hier beginnt auch das Problem: Technologie kann nur das verstärken, was ohnehin vorhanden ist oder eben (noch) nicht.
Selbstreflexion – der unterschätzte Erfolgsfaktor
Gründer*innen stehen täglich vor Entscheidungen mit Tragweite. Doch unter Druck, Unsicherheit und Wachstumsschmerz wird oft reaktiv gehandelt statt reflektiert geführt. Genau hier setzt Selbstreflexion an. Wer sich seiner Stärken, Muster und blinden Flecken bewusst ist, trifft bessere Entscheidungen – für sich, das Team und das Unternehmen. Selbstreflexion ist kein esoterisches Extra, sondern ein pragmatisches Führungsinstrument. Einige wirkungsvolle Methoden:
- Regelmäßige Selbstchecks: Was hat in dieser Woche funktioniert und warum? Was nicht? Was sagt das über meine Prioritäten aus?
- Feedback aktiv einholen: nicht nur von Mitgründer*innen oder Coaches, sondern auch vom Team. Nicht defensiv reagieren, sondern neugierig auf das Feedback sein.
- Mentoring und Coaching: Externe Sparringspartner*innen helfen, Perspektiven zu erweitern und Denkfehler zu entlarven.
- Reflexionstools nutzen: vom (digitalen) Journal bis zur strukturierten Entscheidungsanalyse gibt es einfache Hilfsmittel, die Klarheit schaffen.
Wer bereit ist, sich selbst zu hinterfragen, entwickelt nicht nur sich, sondern auch sein Start-up weiter. Denn Führung beginnt nicht mit der Verantwortung für andere, sondern mit der Verantwortung für sich selbst.
Die Synergie – wenn KI auf Selbstreflexion trifft
Die wirklich erfolgreichen Gründer*innen sind nicht entweder Tech-Expert*innen oder People-Leader*innen. Sie verbinden beides. Sie nutzen KI, um operative Exzellenz zu schaffen und reflektieren gleichzeitig, wie sie führen, entscheiden, kommunizieren. Diese Kombination erzeugt eine Form von unternehmerischer Klarheit, die sowohl innovativ als auch resilient ist.
KI kann Erkenntnisse liefern. Aber nur, wer sie richtig einordnet, profitiert davon. Selbstreflexion schafft den Raum, um mit Technologie sinnvoll umzugehen. Umgekehrt kann KI helfen, Reflexionsprozesse zu unterstützen, etwa durch gezielte Feedback-Auswertung oder datengestützte Teamanalysen.
Ein Beispiel aus der Praxis: Ein Start-up im HR-Tech-Bereich nutzt KI, um Kund*innenfeedback in Echtzeit zu analysieren. Gleichzeitig reflektieren die Gründer*innen wöchentlich im Führungsteam, welche Learnings daraus für Produkt und Kommunikation folgen und welche persönlichen Muster sie bei sich selbst erkennen. Diese Kombination aus technologischem Blick nach außen und menschlichem Blick nach innen führt dazu, dass das Unternehmen nicht nur schneller wächst, sondern dabei auch klar bleibt.
Skalierung braucht Klarheit in der Technik und im Kopf
Start-ups, die skalieren wollen, müssen effizient sein, gleichzeitig aber auch fokussiert, werteorientiert und anpassungsfähig. KI ist dabei ein mächtiges Werkzeug. Doch ohne die Fähigkeit zur Selbstreflexion bleibt sie oft bloß ein weiteres Tool im Tech-Stack.
Deshalb gilt: Die Kombination aus klugem KI-Einsatz und bewusster persönlicher Entwicklung ist kein Luxus, sondern unternehmerische Notwendigkeit. Wer beides ernst nimmt, schafft ein Unternehmen, das nicht nur wächst, sondern dabei auch „gesund“ bleibt.
Die Autorin Lea Baptista ist Geschäftsführerin der GG Consulting Agency und unterstützt Unternehmer*innen, Führungskräfte und Teams dabei, ihren Führungsstil klar zu definieren, Selbstreflexion als Werkzeug zu nutzen und authentisch erfolgreich zu sein.
Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche
Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.
Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.
KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.
Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.
Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.
Kontrolle und Zugang: Die Regeln für Sprachmodelle
Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.
Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.
Neue Protokolle für neue Crawler
Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.
Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.
Strukturierte Daten als universelle KI-Sprache
Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.
Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.
Die Bedeutung für die Generierung
Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.
- Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
- Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.
Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.
Ladezeit und Interaktivität als Vertrauenssignal
Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.
Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:
- LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
- FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
- CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.
Mobile Performance ist der Schlüssel
Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.
Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.
Redundanz vermeiden: kanonische Klarheit
Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.
Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.
Schlussworte
Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.
Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:
1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.
2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.
3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.
4. Die Vermeidung von Duplikaten durch kanonische Klarheit.
Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.
Coupon-Marketing – exklusive Einblicke von Golden-Shopping-Days
Im Interview geben die Golden-Shopping-Days-Gründer Jannik Westbomke und Wladimir Ruf Einblicke in die Entstehungsgeschichte ihres Unternehmens und die Herausforderungen, die mit dem Aufbau einer eigenen Marke im Coupon-Segment verbunden sind.
Rabattaktionen gibt es viele, doch nur wenige Kampagnen schaffen es, sich im dicht gedrängten Markt so klar zu positionieren wie die Golden-Shopping-Days. Was 2020 als Frühjahrsaktion startete, hat sich längst zu einem festen Termin im Kalender zahlreicher Onlineshops und Konsument*innen entwickelt. Hinter der Plattform stehen die Geschäftsführer Jannik und Wladie, die nicht nur eine Gutscheinseite betreiben, sondern eine Art kuratiertes Event geschaffen haben, das zweimal im Jahr zehntägig läuft. Dabei geht es nicht um wahllose Codes, die irgendwo zusammengetragen werden, sondern um exklusive Kooperationen mit inzwischen über 50 Partner*innen – darunter bekannte Marken aus Mode, Food, Gesundheit oder Wohnen.
Neben diesen großen Kampagnen bildet die Plattform inzwischen auch ganzjährig ein starkes Fundament: In der neu geschaffenen Deals-Kategorie finden sich dauerhaft ausgewählte Angebote, und zusätzlich stehen Gutscheine von über 100 Onlineshops bereit. Partner*innen wie Weinfürst, DeinDesign oder HAWESKO verdeutlichen die Vielfalt und den Anspruch, Shoppingvorteile nicht nur saisonal, sondern kontinuierlich zugänglich zu machen.
Das Besondere: Die Rabatte sind zeitlich gebündelt, bewusst inszeniert und für die teilnehmenden Shops ein kalkulierbares Marketinginstrument. Gleichzeitig profitieren die Kund*innen von teils beachtlichen Nachlässen, ohne sich registrieren zu müssen oder Umwege in Kauf zu nehmen. Auch außerhalb der großen Kampagnen finden sich auf der Plattform Gutscheine, doch das eigentliche Herzstück bilden die beiden Aktionszeiträume im Frühjahr und Herbst.
Für Gründer*innen ist Golden-Shopping-Days ein spannendes Beispiel dafür, wie sich ein etabliertes Geschäftsmodell – das Couponing – neu denken lässt. Anstatt in der Masse unterzugehen, setzen die Macher auf Exklusivität, Übersichtlichkeit und klare Kommunikation mit den beteiligten Shops.
Im Interview geben Jannik und Wladie Einblicke in die Entstehungsgeschichte, die Mechanismen hinter den Aktionen und die Herausforderungen, die mit dem Aufbau einer eigenen Marke im Coupon-Segment verbunden sind.
Das Interview
Golden-Shopping-Days gibt es seit 2020. Wie kam es zu der Idee, ausgerechnet eine solche Event-Plattform für Gutscheine aufzubauen?
Jannik: Die Idee ist während des Studiums entstanden. Ich habe nach einer Möglichkeit gesucht, mein Studium zu finanzieren. Auf klassische Werkstudenten-Tätigkeiten hatte ich aber keine Lust und so bin ich irgendwann auf die Idee gekommen, ein Print-Gutscheinheft zu vermarkten. Das erste Heft war schon sehr aufwändig, da ich keinerlei Kontakte zu Onlineshops hatte und so unzählige Telefonate führen musste, um die ersten Shops von meiner Idee zu begeistern. Ein befreundeter Unternehmer hat die erste Auflage für mich gedruckt und auch die Gestaltung des TItelblattes übernommen.
Zwei Kampagnen im Jahr, Frühling und Herbst – warum genau dieses Modell und nicht eine kontinuierliche Rabattflut wie man sie bei anderen Anbietern sieht?
Jannik: Wir haben uns bewusst dazu entschieden im Frühjahr- und Herbst jeweils eine 10-tägige Online-Shoppingkampagne zu veranstalten. Zum Einen ist dies in der Kommunikation für die Konsumenten deutlich einfacher und zum anderen können die teilnehmenden Onlineshops diese fest in ihrem Marktetingmix einplanen und teilweise auch etwas höhere Rabatte gewähren, als es unterjährig sonst der Fall ist.
Welche Kriterien spielen bei der Auswahl der inzwischen über 50 Partnershops eine Rolle? Gibt es klare Vorgaben oder wächst das Netzwerk eher organisch?
Wladie: Wir sind in der Vergangenheit sehr organisch gewachsen und konnten von Kampagne zu Kampagne mehr Onlineshops von der Teilnahme an unserem Konzept begeistern. Klare Vorgaben haben wir nicht. Die teilnehmenden Onlineshops müssen allerdings schon eine gewisse Wertigkeit haben.
Auffällig ist, dass viele Deals exklusiv verhandelt wirken. Wie läuft dieser Prozess im Detail ab – geht es eher um klassische Affiliate-Strukturen oder um direkte Partnerschaften?
Jannik: Mit allen Shops, die an unseren Shoppingevents im Frühjahr und Herbst teilnehmen pflegen wir direkte Partnerschaften. Wir sind darauf bedacht für alle Shoppingbegeisterten die besten Gutscheine und Angebote zu verhandeln.
2025 steht die nächste große Herbstkampagne an und auch die nächste Frühjahrskampagne ist bereits in Planung. Wie bereitet ihr euch auf solche zehn Tage konkret vor, und was bedeutet das organisatorisch im Hintergrund?
Wladie: In der Regel brauchen wir gut ein halbes Jahr Vorbereitungszeit je Kampagne. Wir überlegen uns stets neue Features, um sowohl den Onlineshops als auch den Konsument*innen immer wieder neue Features zu bieten, die einen echten Mehrwert darstellen.
Manche Branchen – etwa Food, Mode oder Gesundheit – sind stark vertreten. Gibt es Bereiche, die ihr bewusst ausklammert, oder ist die Plattform prinzipiell offen für alle Segmente?
Jannik: Wir sind für viele Segmente offen, aber längst nicht für alle. Einen Onlineshop für Waffen wird man bei uns beispielsweise nicht finden.
Couponing ist für Shops ein Marketinginstrument, das nicht nur Umsatz bringen, sondern auch Markenbindung schaffen kann. Wie stellt ihr sicher, dass Golden-Shopping-Days nicht als reine Rabattschleuder wahrgenommen wird?
Wladie: Wir distanzieren uns ganz bewusst und schaffen an vielen Stellen Mehrwerte. Die Veröffentlichung von Gutscheinen stellt nur einen kleinen Teil unseres Geschäftsmodells dar. Mittlerweile fungieren wir vielmehr als Contentplattform. In unserem digitalen Magazin veröffentlichen wir regelmäßig Testberichte und Experteninterviews, auf YouTube publizieren wir Unboxing- und Testvideos - kurz gesagt: Wir schaffen echte Mehrwerte.
Ihr betont, dass Gutscheine bei euch auch außerhalb der Aktionszeiträume verfügbar sind. Wie wichtig ist diese ganzjährige Präsenz für die Markenbildung?
Jannik: Wir wollen unserer Community rund um die Uhr die besten Gutscheine und Angebote bieten. Deshalb ist es natürlich sehr wichtig, dass wir dies auch an 365 Tagen im Jahr gewährleisten können. Wir sind stets im Kontakt mit den Onlineshops, die sich und ihre Angebote bei uns auf der Plattform präsentieren, um die besten Gutscheine und Deals zu verhandeln. Viele Gutscheine sind nur exklusiv bei uns erhältlich.
Ein Blick nach vorn: Welche Rolle soll Golden-Shopping-Days in den nächsten fünf Jahren im deutschen E-Commerce spielen?
Jannik: Eine führende. **lacht**
Vielen Dank, Jannik und Wladie, für die offenen Einblicke in eure Arbeit und die Hintergründe der Golden-Shopping-Days.
Indirekter Einkauf: Versteckter Kostenfresser oder unentdeckter Goldschatz?
Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.
In vielen Unternehmen wird der indirekte Einkauf häufig unterschätzt – dabei liegen hier oft erhebliche Einsparpotenziale verborgen. Durch die wachsende Digitalisierung und die zunehmende Verfügbarkeit von B2B eCommerce-Plattformen bestellen Mitarbeitende Waren und Dienstleistungen immer häufiger außerhalb klassischer Einkaufsprozesse. Diese Entwicklung bringt einerseits Flexibilität und Effizienz, stellt Unternehmen aber auch vor neue Herausforderungen: Wie lassen sich Ausgaben kontrollieren und Transparenz über die gesamte Einkaufskette sicherstellen?
Die beste Einkaufssoftware für den Mittelstand adressiert genau diese Herausforderungen. Hivebuy hat sich als moderne, benutzerfreundliche Lösung etabliert, die den indirekten Einkaufsprozess von der Bestellung bis zur Rechnungsprüfung digitalisiert und automatisiert. Die Software integriert sich nahtlos in bestehende ERP-, Buchhaltungs- und Kommunikationstools wie SAP, Microsoft Dynamics, Teams oder Slack – und das ohne aufwändige technische Implementierung.
Gegründet von erfahrenen Einkaufs- und Finanzexpert*innen aus Frustration über bisherige Lösungen, verfolgt Hivebuy die Mission, versteckte Kosten sichtbar zu machen, Budgets in Echtzeit zu kontrollieren und Einkaufsprozesse effizienter zu gestalten. Mit höchsten Sicherheitsstandards, inklusive ISO/IEC 27001-Zertifizierung und DSGVO-konformer Datenhaltung in Deutschland, schafft Hivebuy Transparenz und Vertrauen entlang der gesamten Einkaufskette.
Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.
StartingUp: Frau Fischer, viele Unternehmen sehen im indirekten Einkauf eher einen Kostenfaktor, der schwer zu kontrollieren ist. Was macht den indirekten Einkauf aus Ihrer Sicht zu einem versteckten Kostenfresser?
Bettina Fischer: Die große Herausforderung im indirekten Einkauf liegt darin, dass die einkaufenden Personen über das gesamte Unternehmen verteilt sind – anders als im direkten Einkauf, wo spezialisierte Einkaufsabteilungen tätig sind. Das bedeutet: Jede*r Mitarbeitende, der oder die einmal etwas bestellt, wird zum Einkäufer oder zur Einkäuferin – oft ohne die notwendige Erfahrung in Einkaufsprozessen.
Dadurch entstehen typische Muster: Es wird bei bekannten Lieferanten bestellt – oft aus dem privaten Umfeld, wie etwa Amazon Business – ohne Preisvergleiche, ohne Berücksichtigung von Lieferzeiten oder bereits verhandelten Konditionen. Das führt schnell zu ineffizienten und teuren Entscheidungen.
Hinzu kommt, dass im indirekten Einkauf eine hohe Produktvielfalt auf eine extrem heterogene Lieferantenlandschaft trifft. Das erschwert es, durch Bündelung bessere Konditionen zu erzielen. Es fehlt die klare, strategische Beziehung zu bestimmten Lieferanten – und genau dort entstehen die versteckten Kosten.
StartingUp: Wie hilft Hivebuy Mittelständlern konkret dabei, diese versteckten Kosten aufzudecken und zu reduzieren?
Bettina Fischer: Hivebuy verfolgt einen ganzheitlichen Ansatz, um die Herausforderungen des indirekten Einkaufs zu lösen. Zum einen ermöglichen wir es Mitarbeitenden, direkt über integrierte Lieferanten zu bestellen. Das bedeutet: Die Bestellungen erfolgen zentral über Hivebuy – ohne Umwege über externe Plattformen oder individuelle Beschaffungswege. Die Bestellübermittlung ist automatisiert und erfolgt effizient über unser System.
Darüber hinaus bietet Hivebuy einen integrierten Preisvergleich für B2B-Webshops. So wird sichergestellt, dass stets der beste Preis und die optimalen Lieferzeiten berücksichtigt werden – ein entscheidender Hebel zur Kostensenkung.
Ein weiterer zentraler Punkt ist die Budgetkontrolle: Sobald eine Bestellanforderung erstellt wird, sehen Budgetverantwortliche sofort die Auswirkungen auf ihr Budget – in Echtzeit. Dadurch lassen sich Entscheidungen schnell, fundiert und transparent treffen.
Auch die Freigabeprozesse sind flexibel und konfigurierbar: Mitarbeitenden wird Freiheit für alltägliche Bestellungen gegeben, während bei kritischen oder kostenintensiven Vorgängen automatische Eskalationen und Genehmigungen greifen.
Nicht zuletzt ermöglicht Hivebuy dem Einkauf, sein Wissen an die Organisation weiterzugeben. Vorverhandelte Verträge, Katalogartikel oder bevorzugte Lieferanten sind direkt im System sichtbar – wie ein digitaler Einkaufsberater im Hintergrund. So treffen selbst unerfahrene Nutzer bessere Entscheidungen – ganz im Sinne von Kostenkontrolle und Prozesssicherheit.
StartingUp: Ihre Software ist bekannt für ihre Nutzerfreundlichkeit. Wie schaffen Sie es, auch nicht-einkaufserfahrene Mitarbeitende einzubinden?
Bettina Fischer: Benutzerfreundlichkeit steht bei Hivebuy an oberster Stelle. Wann immer wir eine neue Funktion entwickeln, testen wir diese gemeinsam mit unseren Nutzerinnen und Nutzern – direkt aus der Praxis. Unser Ziel ist es, dass Hivebuy genauso intuitiv bedienbar ist wie eine Online-Überweisung: Jeder soll auf Anhieb verstehen, was zu tun ist.
Mit Funktionen wie unserem B2B-Preisvergleich und dem sogenannten Guided Buying führen wir Mitarbeitende gezielt durch den Einkaufsprozess – Schritt für Schritt, ganz ohne Schulungsaufwand. So wird selbst komplexes Einkaufswissen einfach zugänglich gemacht.
Für Freigabeverantwortliche haben wir zusätzlich eine besonders komfortable Lösung geschaffen: Freigaben können direkt über Messenger-Apps wie Microsoft Teams erteilt werden – ohne sich ins System einloggen zu müssen. Die relevanten Informationen kommen automatisch dorthin, wo man ohnehin schon arbeitet – aufs Handy oder den Desktop. Das senkt die Einstiegshürden enorm und sorgt für eine breite Akzeptanz im gesamten Unternehmen.
StartingUp: Welche Rolle spielen Transparenz und Echtzeit-Reporting in der Budgetkontrolle?
Bettina Fischer: Wir sind überzeugt: Budgetkontrolle funktioniert nur in Echtzeit. Es bringt wenig, wenn Budgetübersichten nur monatlich, quartalsweise oder gar halbjährlich zur Verfügung stehen. Entscheidungen im Einkauf werden täglich getroffen – also muss auch die Budgettransparenz jederzeit aktuell sein.
Deshalb haben wir bei der Entwicklung von Hivebuy besonderen Fokus auf eine unmittelbare Budgeteinsicht gelegt. Sobald eine Bestellung angefragt wird, sieht der oder die Budgetverantwortliche sofort, wie sich diese auf das verfügbare Budget auswirkt. Diese Echtzeit-Transparenz ist ein zentrales Element unserer Software.
Gleichzeitig möchten wir Mitarbeitende befähigen, innerhalb ihrer Befugnisse selbstständig Entscheidungen zu treffen. Nicht jede Anfrage muss durch mehrere Instanzen laufen. Vielmehr setzen wir auf smarte, automatisierte Prozesse – kombiniert mit dem Vertrauen in die Souveränität der Nutzer. Das spart nicht nur Zeit, sondern steigert auch die Effizienz und Zufriedenheit im Unternehmen.
StartingUp: Die Einführung neuer Software bedeutet oft hohen Aufwand. Wie gestaltet sich die Implementierung von Hivebuy?
Bettina Fischer: Ich habe selbst über viele Jahre ERP- und Einkaufssoftwareprojekte geleitet – und ehrlich gesagt: Es war jedes Mal ein enormer Aufwand. Genau diese Erfahrungen haben mich dazu motiviert, Hivebuy so zu entwickeln, dass Implementierung eben nicht zur Belastung wird.
Unsere Lösung ist bewusst so aufgebaut, dass sie schnell, unkompliziert und ohne großen IT-Aufwand eingeführt werden kann. Neue Unternehmen können innerhalb kürzester Zeit starten – oft sogar innerhalb eines Tages mit einem eigenen Testsystem.
Die Einführung begleiten wir durch leicht verständliche Videotutorials und Onboarding-Materialien. Darüber hinaus gibt es persönliche Sessions, in denen die Nutzer befähigt werden, das System selbstständig für ihr Unternehmen zu konfigurieren. Schnittstellen zu ERP-Systemen wie SAP, Microsoft Dynamics oder DATEV richten wir in der Regel innerhalb weniger Stunden bis Tage ein.
Wenn beide Seiten fokussiert an das Projekt herangehen, können wir bei Unternehmen mit mehreren tausend Mitarbeitenden innerhalb von acht Wochen vollständig live gehen – inklusive Integration, Schulung und Rollout.
StartingUp: Wie unterstützt Hivebuy IT-Teams und technische Entscheider bei der Integration?
Bettina Fischer: Unsere größte Stärke in der Zusammenarbeit mit IT-Teams ist unsere Schnelligkeit. Bereits im ersten Kick-Off mit der IT tauschen wir alle relevanten technischen Dokumentationen aus, klären die Rahmenbedingungen und ermöglichen in kürzester Zeit die Integration in ein Testsystem. Wir verzichten bewusst auf langwierige Business-Blueprint-Phasen und setzen stattdessen auf eine praxisnahe, direkte Umsetzung.
Hivebuy verfolgt eine klare Integration-First-Strategie. Das bedeutet: Unsere Lösung ist von Grund auf so konzipiert, dass sie sich schnell und flexibel in bestehende ERP-Systeme und IT-Landschaften integrieren lässt. Für alle gängigen Systeme – ob SAP, Microsoft Dynamics, DATEV oder NetSuite – stellen wir vollständige Schnittstellen-Dokumentationen zur Verfügung.
Mein Mitgründer Stefan Kiehne bringt aus seiner Zeit bei PwC tiefes technisches Know-how mit und hat zahlreiche ERP-Implementierungen verantwortet. Dieses Wissen fließt direkt in unsere Projekte ein. Inzwischen haben wir Hivebuy in so viele verschiedene Systeme integriert, dass kaum noch Überraschungen aufkommen. Für IT-Verantwortliche bedeutet das: minimale Unsicherheiten, schnelle Umsetzung und maximale Kompatibilität.
StartingUp: Wie sieht die Zukunft des indirekten Einkaufs aus? Welche Trends beobachten Sie?
Bettina Fischer: Ich sehe im indirekten Einkauf ganz klar einen Wandel hin zu intelligenter Automatisierung und echter Transparenz. Schon heute beobachten wir den Trend in Richtung „Agent AI“ – also digitale Einkaufsassistenten, die Nutzer durch Prozesse begleiten und Entscheidungen mit datenbasierten Empfehlungen unterstützen. Das wird sich in den nächsten Jahren deutlich verstärken.
Was mich persönlich schon lange wundert: Im B2C-Bereich haben wir mit Plattformen wie Idealo längst Preis- und Konditionsvergleiche. Im B2B gibt es das kaum. Deshalb war es uns wichtig, mit Hivebuy eine Lösung zu schaffen, die genau das möglich macht – inklusive der hinterlegten, unternehmensspezifischen Konditionen. Das ist ein echter Gamechanger.
In Zukunft wird der indirekte Einkauf zunehmend automatisiert ablaufen – von der Bedarfserkennung bis hin zur Bestellung. Vergleichbar mit einem intelligenten Kühlschrank, der automatisch Milch nachbestellt, wird auch im Unternehmen vieles automatisch geschehen: Bedarfe erkennen, Angebote vergleichen, Bestellungen auslösen – ganz ohne manuelles Zutun.
Strategische Beschaffung wird dabei zur Grundlage. Das Ziel ist nicht, jede Bestellung individuell zu behandeln, sondern Prozesse zu standardisieren, auf Unternehmensziele auszurichten und individuelle Bedarfe intelligent einzubinden.
Und auch die Rückseite des Einkaufs wird sich stark verändern: Rechnungsprüfung, Buchung und Zahlungsfreigabe werden zunehmend automatisiert ablaufen. In einer idealen Zukunft brauchen wir keine manuelle Rechnungserfassung mehr – weil alles systemgestützt, regelbasiert und transparent funktioniert.
StartingUp: Vielen Dank für das Gespräch, Frau Fischer. Ihre Einblicke verdeutlichen, wie entscheidend es für Unternehmen ist, den indirekten Einkauf transparent und effizient zu gestalten. Mit Lösungen wie Hivebuy können Mittelständler versteckte Kosten sichtbar machen und ihre Beschaffungsprozesse nachhaltig optimieren. Wir wünschen Ihnen weiterhin viel Erfolg bei Ihrer Mission, Einkaufsteams bestmöglich zu unterstützen.
Start-ups gegen Plastikmüll
Während die Verhandlungen zu einem globalen Plastikabkommen ergebnislos bleiben, entwickeln Start-ups weltweit innovative Technologien gegen Plastikmüll. Wir stellen eine Auswahl davon vor.
Die jüngsten Verhandlungen in Genf über ein globales Plastikabkommen sind wieder ohne Ergebnis geblieben. Die mehr als 180 verhandelnden Nationen konnten sich nicht einigen. Seit mehr als 50 Jahren sind die Gefahren durch Plastikmüll bekannt – und doch wird immer mehr davon produziert. Jedes Jahr entstehen rund 460 Millionen Tonnen Plastik, weniger als 10 Prozent davon werden recycelt und über 30 Millionen Tonnen gelangen in die Ozeane.
Auf politischer Ebene zeichnet sich bislang keine Lösung ab, auf die man sich global einigen könnte. Neue Vorgaben wie die Pflicht zu fixierten Flaschendeckeln in der EU sorgen eher für Frust. „Seit Jahrzehnten reden wir über das Plastikproblem. Um es zu lösen braucht es technologische Ansätze“, sagt Dr. Carsten Gerhardt, Vorsitzender der gemeinnützigen Circular Valley Stiftung. Solche Ansätze liegen längst auf dem Tisch. „Start-ups aus aller Welt zeigen, dass Innovation schneller sein kann als Verhandlungen.“
Start-ups aus aller Welt arbeiten an Lösungen
Einige dieser Unternehmen hat der Circular Economy Accelerator der Circular Valley Stiftung bereits unterstützt. Das Start-up PROSERVATION etwa stellt Polsterverpackungen aus Nebenprodukten der Getreideindustrie her, BIOWEG ersetzt Mikroplastik durch Biomaterialien aus Lebensmittelabfällen und das Unternehmen Biomyc verwendet Myzel-Verbundwerkstoffe aus Pilzwurzeln und Pflanzen.
Daüber hinaus stellt NYUNGU AFRIKA Damenhygieneprodukte aus Ananasblatt- und Maisschalenfasern her, Midwest Composites nutzt Ernteabfälle für die Herstellung von Textilien und Vlastic bietet eine Alternative zu geschäumten Kunststoffen auf Flachsbasis.
Wenn Produkte das Ende ihrer Lebensdauer erreichen, können sie durch Recycling ein zweites erhalten. Ecoplastile verwandelt Abfälle in langlebige Dachziegel, Gescol macht Bauplatten aus Schuhsohlen und Novoloop nutzt schwer zu recycelndes Polyethylen zur Produktion von thermoplastischen Hochleistungs-Polyurethanen.
Chemisches Recycling zerlegt Kunststoffe in molekulare Bausteine. Das Unternehmen CARBOLIQ verwendet ein katalytisches Niedertemperaturverfahren, um gemischte Kunststoffe in Öl umzuwandeln, das fossile Rohstoffe ersetzen kann; Radical Dot extrahiert Monomere, um sie erneut verwenden zu können.
Zu chemischem Recycling hat Circular Valley in diesem Jahr einen Informationsfilm veröffentlicht, der die Möglichkeiten dieser Methode erklärt und verdeutlicht.
Warum KI bei Förderanträgen versagt
Fünf Gründe, warum Unternehmen auf menschliche Intelligenz setzen sollten.
Ob steuerliche Forschungszulage, Investitionsförderung oder EU-Programme. Künstliche Intelligenz (KI) wie ChatGPT liefert in Sekundenschnelle eine Vielzahl möglicher Förderprogramme. Doch zwischen der reinen Information und der tatsächlichen Erschließung von Fördermitteln liegt ein erheblicher Unterschied. Hier gilt es, Unternehmen zu sensibilisieren.
Fördermittel sind heute ein strategischer Bestandteil moderner Unternehmensfinanzierung. Es reicht daher nicht, die Programme zu kennen. Entscheidend ist, sie rechtssicher, vollständig und förderlogisch aufeinander abgestimmt umzusetzen, um die vollen Förderpotenziale zu heben. Genau hier beginnt die Arbeit von Fördermittelexpert*innen.
Fünf Gründe, warum KI-Tools nicht als Fördermittelberater funktionieren
1. KI erkennt die wahren Förderpotenziale nicht
ChatGPT kann erklären, was ein Förderprogramm leistet. Doch welche Kosten eines konkreten Vorhabens tatsächlich und wie hoch förderfähig sind, lässt sich so nicht beurteilen. Gerade bei komplexen Programmen wie der steuerlichen Forschungszulage sind Erfahrung, Struktur und rechtssichere Abgrenzung entscheidend. Eine gute Fördermittelberatung prüft jedes Vorhaben systematisch: von der Förderfähigkeit nach dem Forschungszulagengesetz (FZulG), AGVO oder De-minimis-Verordnung bis hin zur klaren Trennung förderfähiger und nicht förderfähiger Aufwände.
2. KI kann keine Förderstrategien entwickeln
Eine Liste von Förderprogrammen ersetzt keine Strategie. KI kann nur Optionen nennen, aber keine Strategien zur Umsetzung im Unternehmen entwickeln. Eine gute Fördermittelberatung integriert die Forschungszulage sinnvoll in laufende Projekte und strukturiert Innovations- sowie Investitionsprozesse auf Bundes-, Landes- und EU-Ebene. So entstehen nicht nur Optionen, sondern belastbare, wirtschaftlich wirksame Lösungen.
3. KI kann nicht mit Menschen kommunizieren
Ein Antrag ist mehr als ein Formular. Er muss Anforderungen erfüllen und überzeugen. KI liefert Textbausteine, aber führt keine Gespräche und reagiert nicht auf Rückfragen mit der notwendigen Erfahrung in der Verwaltungspraxis der verschiedenen Förderprogramme. Eine gute Fördermittelberatung übernimmt die gesamte Kommunikation mit Förderstellen, koordiniert mit Bescheinigungsstellen und entwickelt formal korrekte und überzeugende Argumentationen.
4. KI endet beim Prompt – Fördermittelberatung bei der erfolgreichen Projektprüfung
Nach dem Antrag geht die Arbeit oft erst richtig los. Rückfragen, Prüfungen, Nachweise. KI kann Unternehmen dabei nicht unterstützen und keine Verantwortung übernehmen. Eine gute Fördermittelberatung hingegen begleitet die Kund*innen durch den gesamten Förderzyklus mit sauberer Dokumentation, revisionssicherer Aufbereitung und Unterstützung bei Audits und Außenprüfungen.
5. KI zeigt nur den Dschungel – Förderexperten finden den Schatz
Datenbanken geben einen Überblick, aber keine Richtung. Eine gute Fördermittelberatung bewertet alle denkbar möglichen Förderprogramme im konkreten Unternehmenskontext und entwickelt daraus konkrete Maßnahmen, um das Maximum an Fördermöglichkeiten für die Kund*innen rauszuholen. Eine gute Fördermittelberatung schafft so echte wirtschaftliche Vorteile statt der bloßen Auflistung von Fördermöglichkeiten.
Der Autor Efe Duran Sarikaya ist CEO der Fördermittelberatung EPSA Deutschland.
Die Rolle von natürlichem Licht in modernen Architekturkonzepten
Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.
Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.
Das wachsende Bewusstsein für Lichtqualität
In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.
Architektonische Vielfalt dank Tageslicht
Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.
Energieeffizienz und Gesundheit
Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.
Materialauswahl und technologische Innovationen
Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.
Planungsaspekte für moderne Gebäude
Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.
Gestalterische Freiheit durch Tageslichtlösungen
Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.
Inspirierende Beispiele aus der Gegenwart
Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.
Ausblick auf künftige Entwicklungen
Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.
„Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing“
Mit planqc verfolgt Dr. Alexander Glätzle die Mission, hochskalierbare Quantencomputer für wirtschaftliche Anwendungen zu bauen. Warum das Unternehmen dabei auf Standorte wie München und Innsbruck setzt und welche Rolle Österreichs Talentpool spielt, verrät er im Interview.
Dr. Alexander Glätzle ist Quantenphysiker und Mitgründer von planqc. Er studierte und promovierte an der Universität Innsbruck, forschte an renommierten Instituten wie Oxford, Harvard sowie in Singapur und war als Unternehmensberater tätig. 2022 gründete er planqc als Ausgründung aus dem Max-Planck-Institut in München.
Herr Dr. Glätzle, wie entstand die Unternehmensidee und welche Meilensteine haben Sie mit planqc bisher erreicht?
Die Idee zu planqc ist bereits während meines Studiums an der Universität Innsbruck entstanden. Dort habe ich intensiv im Bereich Quantentechnologie geforscht und das enorme Potenzial erkannt, aus diesen Erkenntnissen ein Start-up zu gründen. Bis zur Gründung hat es allerdings noch einige Jahre gedauert – nicht zuletzt, weil die technologische Entwicklung im Labor ebenfalls voranschreiten musste. 2022 sind wir dann als Ausgründung aus dem Max-Planck-Institut offiziell gestartet. Zu den wichtigsten Meilensteinen zählen zwei große öffentlich geförderte Projekte: Für das Deutsche Zentrum für Luft- und Raumfahrt bauen wir einen Quantencomputer mit einem Volumen von 30 Mio. EUR, ein weiteres Projekt mit dem Leibniz-Rechenzentrum umfasst 20 Mio. EUR, beide mit Abschluss bis Ende 2026 bzw. 2027. Dann werden an diesen beiden Standorten voll funktionsfähige Quantencomputer von planqc installiert sein.
Sie haben bereits Venture Capital mit an Bord. Wer zählt zu Ihren Investoren?
Gestartet sind wir 2022 mit einer Seed-Runde, an der unter anderem UVC Partners, Speedinvest und Apex Ventures beteiligt waren – also bereits starke Partner auch aus Österreich. Diese Basis konnten wir in der Series-A im letzten Jahr weiter ausbauen. Die CATRON Holding, ein Wiener Family Office, ist als Lead-Investor eingestiegen. Dazu kamen weitere Partner wie der DeepTech & Climate Fonds sowie Bayern Kapital. Besonders erfreulich ist, dass auch unsere Bestandsinvestoren erneut signifikant investiert haben. Damit verfügen wir über eine starke, rein mitteleuropäische, deutsch-österreichische Investorenbasis – was in unserem Sektor tatsächlich selten ist.
Ihr Headquarter befindet sich in der Nähe von München. Was hat Sie dazu bewegt, zusätzlich einen Standort in Innsbruck zu eröffnen?
Ursprünglich haben wir planqc in München gegründet – als Ausgründung aus dem Max-Planck-Institut. Doch bereits innerhalb eines Jahres haben wir ein zweites Büro in Innsbruck eröffnet. Der Grund liegt auf der Hand: Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing. Mit renommierten Instituten wie dem Institut für Quantenoptik und Quanteninformation (IQOQI) und Persönlichkeiten wie Peter Zoller und Rainer Blatt gibt es dort eine kritische Masse an international anerkannten Wissenschaftlern. Zudem ist es in der Praxis oft schwierig, hochqualifizierte Talente aus der Region nach München zu bringen. Deshalb haben wir entschieden, ihnen vor Ort ein attraktives Arbeitsumfeld zu bieten – mit einem eigenen Standort in Innsbruck.
Welche Vorteile bietet der Standort Österreich speziell für Unternehmen im Bereich Quantencomputing?
Österreich hat eine lange und starke Tradition in der Quantenphysik. Universitäten wie Innsbruck und Wien, das IQOQI und eine ganze Generation exzellenter Wissenschaftler prägen diese Landschaft. Viele bahnbrechende theoretische und experimentelle Arbeiten wurden hier in den vergangenen Jahren geleistet. Gerade für junge Start-ups bietet das Land enorme Vorteile: Der Talentpool ist außergewöhnlich – mit hervorragend ausgebildeten, dynamischen Fachkräften. Darüber hinaus ist die Nähe zu sogenannten „Industry First Movern“ gegeben, was den Standort besonders spannend macht. Und nicht zuletzt hat Österreich eine historische Verbindung zur Physik – Namen wie Schrödinger, Pauli oder Hess stehen sinnbildlich für diese wissenschaftliche Tiefe.
Welche Unterstützung erhielten Sie bei der Ansiedlung durch die Austrian Business Agency?
Die Austrian Business Agency sowie die Standortagentur Tirol haben uns außerordentlich engagiert unterstützt – sei es bei der Suche nach Büroflächen, bei der Eröffnung des ersten Bankkontos oder in bürokratischen Fragen. Sie standen uns nicht nur beratend zur Seite, sondern haben uns tatkräftig geholfen, Hürden aus dem Weg zu räumen. Genau so stelle ich mir die Zusammenarbeit mit einer lokalen Agentur vor: nah dran, lösungsorientiert und mit exzellentem Netzwerk. Wir hatten wirklich großes Glück mit der Unterstützung vor Ort.
Sie selbst sind in Österreich geboren, haben in Innsbruck promoviert und weltweit Forschungsaufenthalte absolviert – bevor Sie als Unternehmensberater und Gründer nach München gingen. Mit welchen Qualitäten punktet Österreich allgemein, auch als Arbeits- und Wohnort?
Ich habe viele Jahre im Ausland gelebt und gearbeitet – in Oxford, Singapur und Deutschland. Was Innsbruck und Tirol für mich besonders macht, ist die Kombination aus wissenschaftlicher Exzellenz und hoher Lebensqualität. Die Stadt liegt inmitten der Alpen, bietet eine hervorragende Infrastruktur und ein ausgewogenes Verhältnis zwischen Studierenden und Einwohnern. Das schafft ein inspirierendes Umfeld – zum Leben, Forschen und Arbeiten gleichermaßen.
Dr. Alexander Glätzle, vielen Dank für das Gespräch.
Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin
“Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit”
„Made in Steel. Built on Data.“ Mit diesem Leitsatz positioniert sich die EMR Dynamics GmbH als strategische Antwort auf die zunehmende Komplexität globaler Lieferketten – und auf die wachsenden Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Wertschöpfungsnetzwerken.
Unter der Leitung von Emrullah Görsoy geht EMR Dynamics aus einem Berliner Familienunternehmen hervor, das seit 2005 als verlässlicher Partner für mechanische Komponenten in Europa etabliert ist. Nun markiert das Unternehmen den nächsten Entwicklungssprung der Unternehmensgeschichte: von der Fertigung zur Plattform.
Fragen dazu an Emrullah Görsoy, Managing Director at EMR:
Seit mehr als 20 Jahren seid ihr mit EMR am Markt. Man könnte sagen, ihr macht vieles richtig – Wie lautet euer Erfolgsrezept?
Unser Erfolgsrezept liegt in der konsequenten Weiterentwicklung. Wir haben uns nie auf bestehenden Strukturen ausgeruht, sondern das Unternehmen immer wieder neu gedacht – operativ, strategisch und technologisch. Besonders in Zeiten des Wandels war unser pragmatischer Unternehmergeist entscheidend. Dabei kombinieren wir mittelständische Robustheit mit einer agilen Denkweise – anpassungsfähig, resilient und wachstumsorientiert.
Zeitnah startet ihr mit eurer Neugründung EMR Dynamics am Markt. Was steckt dahinter?
EMR Dynamics ist unsere Antwort auf ein fragmentiertes Marktumfeld und wachsende Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Lieferketten. Wir verbinden vertikal integrierte Fertigungskompetenz mit einer digitalen Prozessarchitektur – eine B2B-Plattform für die intelligente Steuerung und Vermittlung industrieller Produktions- und Beschaffungsprozesse. Das Ziel: maximale Skalierbarkeit, reduzierte Time-to-Market und durchgängige Prozesssicherheit für unsere Kunden.
Damit schlagen wir die Brücke zwischen Mittelstand und digitaler Ökonomie – resilient, effizient und kundennah. Wir wollen EMR Dynamics als Plattformmarke im industriellen Mittelstand etablieren – mit eigener Fertigung, digitalem Backbone und strategischer Nähe zum Kunden.
An wen richtet sich euer Angebot?
Unsere Zielgruppen sind OEMs, Tier-1-Zulieferer und Systempartner aus hoch regulierten und qualitätskritischen Industrien – etwa Rail, Aerospace, Defense oder Industrial Tech. Wir liefern nicht nur Komponenten, sondern vernetzen Prozesse, sichern Supply Chains ab und schaffen Plattformlösungen für beschleunigte Wertschöpfung – alles aus einer Hand.
Wie unterscheidet sich euer Angebot von klassischen Fertigungsdienstleistern?
Wir sind kein reiner Teilelieferant. Wir verstehen uns als Lösungsanbieter entlang der industriellen Wertschöpfung – von Co-Engineering und Prototyping über skalierbare Serienfertigung bis hin zur integrierten Lieferkette. Durch die Plattformlogik können wir unsere Prozesse mit denen unserer Kunden synchronisieren und so Time-to-Market und Lieferperformance signifikant verbessern – gerade für komplexe und hochqualifizierte Baugruppen.
Seit mehreren Jahren bist du Geschäftsführer des Unternehmens EMR Industrial. Wie fühlt es sich an, als Young Professional bereits in einer solchen verantwortungsvollen Rolle zu sein?
Herausfordernd, aber erfüllend. Ich hatte das Privileg, früh Verantwortung zu übernehmen – besonders während der Transformation von EMR in der Pandemie. Die Krise 2020 hat uns gezwungen, unser gesamtes Geschäftsmodell zu pivotieren. Diese Erfahrung hat mich geprägt: Strategisch zu denken, unternehmerisch zu handeln und nie den Kontakt zur operativen Realität zu verlieren.
Welche Bedeutung hat die Digitalisierung aus deiner Sicht für den Mittelstand und was können sich Mittelständler von Start-ups abschauen?
Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit. Der Mittelstand kann von Start-ups besonders eines lernen: den Mut, Prozesse radikal neu zu denken – und den Fokus auf Geschwindigkeit, Automatisierung und User Experience.
Emrullah Görsoy, Danke für die Insights
5 Tipps für GPT-Sichtbarkeit im Netz
Warum klassisches SEO allein nicht mehr ausreicht und wie Unternehmen für die KI-Antworten der GPT-Modelle sichtbar werden.
Die Spielregeln der digitalen Sichtbarkeit werden gerade neu geschrieben – und die Unternehmen müssen sich neu aufstellen. Denn während viele Unternehmen ihre Strategien noch immer ausschließlich auf Google-Rankings und SEO-Kriterien ausrichten, verlagert sich die digitale Aufmerksamkeit längst in Richtung KI: Sprachmodelle wie ChatGPT, Claude oder Gemini ersetzen zunehmend die klassische Suche. Sie liefern keine Trefferlisten mehr, sondern direkte, aufbereitete Antworten – oft mit konkreten Empfehlungen und Verlinkungen. Für Marken, Produkte und Unternehmen wird es damit entscheidend, in diesen zusammengefassten Antworten stattzufinden. Das Stichwort hierfür ist technisches SEO für KI-Rankings.
Suchmaschinen waren gestern das führende Element in der Sortierung von Wissen im Netz und vor allem das Google-Ranking war entscheidend für die Sichtbarkeit von Informationen und Seiten. In Zukunft entscheiden dagegen Sprachmodelle darüber, welche Inhalte gesehen, zitiert und empfohlen werden. Und wer in diesen Systemen nicht genannt wird, verliert den direkten Draht zur Zielgruppe.
Diesen Paradigmenwechsel vom Google-Ranking zur Antwortlogik hat die SMAWAX, die auf Strategieberatung spezialisierte Agentur der Smarketer Group, erstmals systematisch im Rahmen eines Whitepapers analysiert (s. Link am Ende des Beitrags). Die Expert*innen erklären dabei detailliert, wie GPT-Modelle Inhalte auswählen – und welche Inhalte von den Systemen überhaupt referenziert werden dürfen. Die zentrale Erkenntnis: Suchmaschinenoptimierung nach alten Regeln greift zu kurz, ist aber weiterhin die Sichtbarkeitsgrundlage. Denn Sprachmodelle wie ChatGPT denken nicht in Keywords und Rankings, sondern in semantischen Relevanzräumen, Entitätenbeziehungen und struktureller Klarheit.
Inhalte müssen modular und semantisch präzise sein – doch das reicht nicht
Es geht nicht mehr um Top-Rankings – es geht darum, die richtige Antwort zu sein. Wir müssen SEO neu denken – als Schnittstelle zwischen Struktur, Relevanz und maschinellem Verstehen. Inhalte müssen dazu maschinenlesbar, modular aufgebaut und semantisch präzise sein. Nur dann haben Unternehmen eine Chance, in den Empfehlungslogiken von Claude, GPT & Co. aufzutauchen.
Besonders überraschend ist dabei aber, dass viele Unternehmen in GPT-Antworten zwar durchaus latent präsent, aber nicht sichtbar sind. Der Grund hierfür sind unscharfe Entitäten, fehlende „About“-Seiten, keine Verankerung in externen Quellen wie Wikidata, Trustpilot oder LinkedIn. Die Folgen wirken sich negativ auf die Marken aus und sorgen für Fehlinformationen: KI-Modelle verwechseln Marken, halluzinieren Funktionen oder verschweigen relevante Angebote. Halluzinationen sind in Wahrheit ein strategischer Hinweis auf Unsichtbarkeit. Wenn GPT ein Produkt falsch beschreibt oder dich mit einem Mitbewerber verwechselt, zeigt das: Deine Inhalte sind zwar irgendwo im Modell – aber nicht stabil genug verankert, um korrekt genannt zu werden.
Fünf konkrete Hebel für bessere GPT-Sichtbarkeit
Diese praxisnahe Handlungsempfehlungen können Unternehmen sofort umsetzen können – unabhängig davon, ob sie im B2B- oder B2C-Bereich aktiv sind.
1. Entitäten definieren: Jede Marke braucht heute eine kanonische „About“-Seite, ergänzt um ein Wikidata-Profil, semantische Markups und gleiche Namensverwendungen auf Plattformen wie LinkedIn oder Handelsregister.
2. Aktualität signalisieren: GPT-Modelle bevorzugen Inhalte mit klaren Update-Daten (z.B. dateModified). Ohne erkennbaren Pflegezustand gelten Inhalte als veraltet – und werden ausgefiltert.
3. Bing wird zum Gateway: Weil GPT seine Websuche auf Bing stützt, ist dessen Indexierung entscheidend. Wer dort nicht sauber auffindbar ist, existiert in GPT-Antworten nicht.
4. Content chunkbar machen: Inhalte sollten nicht mehr aus langen Fließtexten bestehen, sondern in modularen Blöcken mit H2-Strukturen, Listen und Zwischenfazits aufgebaut sein.
5. Externe Signale einbinden: Erwähnungen auf Trustpilot, Reddit oder in der Fachpresse stärken die semantische Autorität – und erhöhen die Chance, von Sprachmodellen zitiert zu werden.
Fazit
Die neue Sichtbarkeit entsteht durch das, was das Modell nicht selbst erzeugen kann – sie entsteht also nicht über Rankings, sondern über Relevanzräume. Wer auf Standard-Content setzt, wird paraphrasiert oder übergangen. Wer dagegen einzigartigen, strukturierten und technisch klaren Content liefert, wird empfohlen.
Zum Weiterlesen: Das Whitepaper steht zum kostenlosen Download bereit unter www.smawax.com/whitepaper-ki-sichtbarkeit

