Aktuelle Events
Echte Suppenkasper!
Vor fünf Jahren haben Daniel und Denis Gibisch begonnen, Bio-Suppen zu verkaufen. Heute sind die Little-Lunch-Gründer Marktführer in ihrem Bio-Convenience-Segment.
Täglich, um kurz vor 12 Uhr, stellt man sich hierzulande die Frage: Was gibt’s heute zum Mittagessen? Auch Denis und Daniel Gibisch fragten sich das immer wieder im unvermeidlichen Mittagstief. Und so wurden aus hungrig grübelnden Brüdern letztlich innovative Food-Start-up-Gründer. Mit Little Lunch fanden sie die – nicht nur aus ihrer Sicht – passende und zugleich leckere Antwort auf die quälende Mittagsfrage: Bio-Suppe!
Magenknurren macht erfinderisch
Im Südwesten Bayerns, in Augsburg, nahm die Geschichte der nachhaltigen Bio-Suppen aus dem Glas so ihren Anfang. Fünf Jahre ist es her, seit Little Lunch begann, den Bio-Convenience-Bereich zu revolutionieren. Heute sind die Gründer Marktführer im hart umkämpften Sektor „Bio-Convenience-Suppen ungekühlt“. Etwa jede zweite im Handel verkaufte, ungekühlte Bio-Suppe kommt aus der innovativen Küche von Denis und Daniel; der vorläufige Höhepunkt eines bemerkenswerten Werdegangs.
Bei allem Erfolg ist den beiden neben Bodenständigkeit auch Ehrlichkeit eine wichtige Zutat, die der unternehmerischen Suppe Würze verleiht. Sie ist für ihre Zusammenarbeit elementar: „Als Bruder kennt man den anderen einfach unglaublich gut und kann ohne Umschweife ehrlich zueinander sein. Das ist vor allem in stressigen Zeiten sehr hilfreich“, erzählt Daniel. Gerade in den Bereichen Nachhaltigkeit und Unternehmensführung wurden den beiden die gleichen Werte und Ansichten vermittelt, die sie sowohl privat als auch beruflich prägten. Auch eine gesunde Portion Realismus haben die Eltern Gibisch ihren Söhnen mitgegeben. „Wir wussten früh, dass wir zusammen ein Unternehmen gründen wollen, und uns war klar, dass das kein Zuckerschlecken wird. Da unsere Eltern beide selbständig waren, wurde uns das Unternehmertum quasi in die Wiege gelegt. Sie waren unser großes Vorbild und standen von Anfang an hinter unserem Vorhaben“, so Denis.
Obwohl Daniel und Denis nach dem Studium zunächst getrennte Wege gingen – Denis studierte BWL, Daniel war als Entwickler in einem IT-Unternehmen tätig –, führte sie ihr Traum vom eigenen Business bald wieder zusammen. Diese ersten Berufserfahrungen waren für die Gründung das Salz in der Suppe, denn jeder konnte seine eigene Expertise einbringen und hatte sein Steckenpferd. „Nachdem wir uns in anderen Bereichen ausgetobt hatten, waren wir von der Idee einer Gründung nun endgültig überzeugt. Aber gerade zu Beginn, mit einem Zwei-Mann-Team, das nur sehr langsam wächst, mit begrenzten Mitteln und einem sehr hohen Risiko, ist es ein hartes Stück Arbeit und der Erfolg ungewiss. Momente des Zweifelns sind an der Tagesordnung, man muss absolut hinter seiner Idee stehen. Mut und Durchhaltevermögen, das sind die zwei wichtigsten Erfolgsfaktoren“, so Daniel.
Die Marktlücke entdeckt
Der allererste Schritt für ein gelungenes Rezept ist normalerweise die Idee. Nicht so bei Little Lunch. Hier stand das Konzept anfangs noch in den Sternen. „Jede Mittagspause fragten wir uns aufs Neue: Was essen wir heute? Die Antwort lautete meistens: Junkfood, Pommes, Döner, Pizza. Die Folge? Komatöse Nachmittagsstunden am Schreibtisch. Und schlanker wird man dadurch ja auch nicht gerade.“ Auf der Suche nach einer Alternative stellten Denis und Daniel fest, dass jeder Deutsche im Schnitt 100 Teller Suppe im Jahr isst. Doch im Supermarkt gab es entweder Suppen aus dem Kühlregal, die ungekühlt nach wenigen Tagen verderben, oder Convenience-Produkte, vollgestopft mit Zusatz- und Konservierungsstoffen. Die Brüder hatten eine Marktlücke entdeckt und die Idee von Little Lunch war geboren: eine nachhaltige, haltbare und vor allem leckere Bio-Suppe aus dem Glas, die ohne künstliche Zusatzstoffe und Geschmacksverstärker auskommt.
So folgte 2014 dann ganz offiziell die Gründung der Littlelunch GmbH & Co. KG. Mit neuer Würze wollten die Gibischs ab sofort die Mittagspause revolutionieren. Daniel erklärt den Ansatz: „Ein innovatives Geschäftsmodell muss nicht zwangsläufig ein komplett neues Produkt sein. Man kann ihm auch, abseits von etablierten Konzepten, neues Leben einhauchen. Und das haben wir getan. Wir treffen mit biologischen Zutaten, Nachhaltigkeit und Transparenz den Nerv der Zeit, weil Verbraucher darin einen elementaren Mehrwert erkennen, für sich und auch die Umwelt.“ Problemlösung, kann man sagen. „Das reicht aber noch nicht“, ergänzt Denis, „denn gerade jetzt, da es viele Start-ups und Gründer gibt, ist es entscheidend, ein Alleinstellungsmerkmal und die ausreichende Nachfrage nach dem Produkt zu haben“.
Was fehlte, war ein Investor
Die Idee, die Suppen selbst zu kochen, mussten die Gibischs bald begraben, weil eine eigene Produktion im Labor nicht bezahlbar gewesen wäre und auch das nötige Know-how fehlte. Es wurden unzählige potenzielle Hersteller getroffen. Nach langer Suche fanden sie schließlich einen Betrieb, der nach ihren Ansprüchen produzieren konnte. Trotz einer großen Portion Eigenkapital und Herzblut waren die Umsatzzahlen zunächst noch gering, und auch mit Listungen im Einzelhandel lief es schleppend. Was fehlte, war ein Geldgeber. „Nur 1000 Suppen zu produzieren, wäre bei einer Produktion dieser Art nicht möglich gewesen. Die Suche nach Kapital war nicht einfach, wir mussten zu Beginn viele Absagen von Investoren einstecken“, so Daniel, und er ergänzt: „Doch man darf seinen Mut nicht verlieren, sondern muss weiter Kontakte knüpfen und viel netzwerken. Mit der GLS Bank haben wir schließlich einen großartigen Partner gefunden.“
Diese Artikel könnten Sie auch interessieren:
NOI Techpark – ein europäischer Playground of Opportunities
2017 an den Start gegangen, ist der in Südtirol beheimatete NOI Techpark ein synergiereicher Mikrokosmos aus Universität, Forschung, Unternehmen und Start-ups und hat sich als eine All-in-one-Anlaufstelle etabliert, die man in dieser Form europaweit kaum ein weiteres Mal findet. Mehr zum Selbstverständnis und den vielschichtigen Aktivitäten des NOI Techpark erfahren wir im Interview mit Pia-Maria Zottl, der Leiterin des Incubators im NOI.
StartingUp: NOI Techpark ist Südtirols Innovationsviertel. Was kann man sich darunter genau vorstellen?
Pia-Maria Zottl: Stellen Sie sich einen Ort vor, an dem Ideen kurze Wege haben. Auf dem Gelände einer ehemaligen Aluminiumfabrik in Bozen wächst seit 2017 Südtirols Wissenschafts- und Technologiepark, der NOI Techpark. Hier arbeiten und forschen aktuell 2.400 Start-upper, Unternehmerinnen, Lehrende und Studierende. Hier wird täglich Wissen geteilt und gemeinsam an Lösungen für eine lebenswerte Zukunft gefeilt. Der Name NOI ist dabei Programm. Er steht für Nature of Innovation und verkörpert die Art, wie wir Innovation verstehen und leben: keine Innovation zum Selbstzweck, sondern eine, die eine positive Wirkung auf Mensch und Umwelt hat.
StartingUp: Was macht Bozen als Innovationsstandort so besonders?Pia-Maria Zottl: Wir liegen in Südtirol an einem strategisch wichtigen Dreh- und Angelpunkt zwischen Italien und dem DACH-Raum und an der Achse zweier starker Start-up-Ökosysteme in Europa: München und Mailand. Bozen war schon immer ein zentraler Knotenpunkt zwischen Nord und Süd. Und genauso ist NOI ein strategischer Knotenpunkt zwischen Forschung und Unternehmen. Hier kommen die richtigen Partner schnell zusammen und arbeiten unkompliziert miteinander. Jungunternehmen aus dem deutschen Raum finden im NOI die nötigen Netzwerke und Rahmenbedingungen für den Sprung in den italienischen Markt und umgekehrt. Und wir sind auch ein Tor zu Europa, wenn es darum geht, passende Forschungs- oder Industriepartner zu finden und EU-Förderungen für die eigene Geschäftsidee zu mobilisieren.
StartingUp: Was bieten Sie Gründerinnen und Gründern, was diese anderswo nicht finden, sprich was unterscheidet NOI von anderen Gründerzentren?
Pia-Maria Zottl: Wir sind mehr als ein reines Gründerzentrum. Der NOI Techpark ist ein synergiereicher Mikrokosmos aus Universität, Forschung, Unternehmen und Start-ups. Eine All-in-one-Anlaufstelle, die enorme Vorteile bringt und ein Unikum ist, das man anderswo in Europa in dieser Form nicht so leicht findet. Zudem haben Gründerinnen und Gründer im NOI Techpark Zugriff auf Know-how und Forschungslabore in Feldern wie grüne Technologien, Lebensmittel und Gesundheit, Digital und Automation in Industrie und Landwirtschaft. Dieser Mischung ist es zu verdanken, dass NOI immer mehr zu einem internationalen Anziehungspunkt für innovationswillige Start-ups, Scale-ups und Spin-offs wird. Teams arbeiten hier Tür an Tür mit Forschungsgruppen und Fachleuten unterschiedlichster Branchen. Pilotprojekte, Prototypen oder Nutzerfeedback lassen sich so viel schneller organisieren. Start-ups können ihre Produkte in einem unserer 70 Labore testen, mit passenden Forschungspartnern verfeinern und zugleich den Marktzugang mit potenziellen Kunden vorbereiten. Kurz gesagt: Wir sind ein wahrer „playground of opportunities“.
StartingUp: Wie viele Start-ups betreuen Sie und welche Themen und Branchen sind vorherrschend?
Pia-Maria Zottl: Aktuell betreuen wir 43 Start-ups, fünf davon haben wir erst vor wenigen Wochen aufgenommen. Im NOI dominieren, wie bereits erwähnt, besonders die Technologiefelder Green, Food & Health, Digital und Automotive & Automation. Der NOI Techpark hat sich in diesen Bereichen eine hohe Glaubwürdigkeit aufgebaut, weshalb viele Start-ups in diesen Sektoren angesiedelt sind. Besonders KI-gestützte Lösungen, etwa im Agrarbereich, stehen im Trend. Nachhaltige Innovationen und der Fokus auf Kreislaufwirtschaft sind ebenfalls stark vertreten, was den regionalen Bezug zur Natur und den Ressourcen Südtirols widerspiegelt. Ein ganz großes Thema ist schließlich die Lebensmittelfermentation. Darin haben wir hier im NOI ein international anerkanntes Know-how, dank des ICOFF – International Centre on Food Fermentations und mehrerer Forschungsgruppen und Unternehmen. Start-ups wie Looops, das eine Zuckeralternative aus fermentierten Lebensmittelnebenprodukten entwickelt, haben sich genau aus diesem Grund im NOI angesiedelt und profitieren vom Wissen und dem vorhandenen Netzwerk.
StartingUp: Was bieten Sie Start-ups, die sich im NOI Techpark ansiedeln?
Pia-Maria Zottl: Wir begleiten Gründerinnen und Gründer ganzheitlich – von der ersten Validierung bis zum Skalierungsschub. Unsere drei aufeinander aufbauenden Programme führen zielgerichtet durch die wichtigsten Phasen der Unternehmensentwicklung: Wir schärfen Problem-/Solution- und Product-/Market-Fit, entwickeln gemeinsam belastbare Geschäftsmodelle und bereiten Teams systematisch auf Wachstum und Markteintritt vor. Ergänzt wird das durch ein starkes Alumni-Format sowie Initiativen wie Female Founders, die spezifisch auf weibliche Start-ups zugeschnitten sind, und Future Founders, die Nachwuchs-Talente früh abholen sollen. Zu unserem Service-Portfolio gehören Performance-Analysen, individuelle Coachings und Mentorings mit erfahrenen Unternehmern und Expertinnen, Workshops und Academies zu Themen von Go-to-Market bis Finanzierung – und vor allem der direkte Zugang zu einem außergewöhnlich dichten Netzwerk aus Forschung, Industrie, Universität und Investoren.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche
Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.
Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.
KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.
Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.
Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.
Kontrolle und Zugang: Die Regeln für Sprachmodelle
Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.
Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.
Neue Protokolle für neue Crawler
Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.
Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.
Strukturierte Daten als universelle KI-Sprache
Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.
Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.
Die Bedeutung für die Generierung
Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.
- Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
- Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.
Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.
Ladezeit und Interaktivität als Vertrauenssignal
Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.
Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:
- LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
- FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
- CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.
Mobile Performance ist der Schlüssel
Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.
Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.
Redundanz vermeiden: kanonische Klarheit
Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.
Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.
Schlussworte
Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.
Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:
1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.
2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.
3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.
4. Die Vermeidung von Duplikaten durch kanonische Klarheit.
Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.
eleQtron: It's MAGIC
In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.
Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“
Es war ein ungewöhnlicher Ort für eine bahnbrechende
Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.
Von der Universität ...
Im Jahr 2020, als das globale Interesse an Quantentechnologien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.
Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quantenprogramme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.
In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.
... zum technologischen Durchbruch
Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer sogenannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikrowellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“
Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.
Wachstumsschub und strategische Entwicklung
2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.
„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.
EU AI Act: Status quo
Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.
Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.
Überblick: Der AI Act
Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten HochrisikoSysteme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.
Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.
Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.
Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.
Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.
Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produktregulierung und Marktüberwachung.
Was fehlt? Guidance und Governance
Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.
Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.
Und wo steht Deutschland?
Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.
Reallabore
Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.
Reaktionen
Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.
Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschiedliche Informationen und Compliance-Nachweise verfügbar sind.
Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.
Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.
Fazit
Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.
Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Herausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.
Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München
Start-ups gegen Plastikmüll
Während die Verhandlungen zu einem globalen Plastikabkommen ergebnislos bleiben, entwickeln Start-ups weltweit innovative Technologien gegen Plastikmüll. Wir stellen eine Auswahl davon vor.
Die jüngsten Verhandlungen in Genf über ein globales Plastikabkommen sind wieder ohne Ergebnis geblieben. Die mehr als 180 verhandelnden Nationen konnten sich nicht einigen. Seit mehr als 50 Jahren sind die Gefahren durch Plastikmüll bekannt – und doch wird immer mehr davon produziert. Jedes Jahr entstehen rund 460 Millionen Tonnen Plastik, weniger als 10 Prozent davon werden recycelt und über 30 Millionen Tonnen gelangen in die Ozeane.
Auf politischer Ebene zeichnet sich bislang keine Lösung ab, auf die man sich global einigen könnte. Neue Vorgaben wie die Pflicht zu fixierten Flaschendeckeln in der EU sorgen eher für Frust. „Seit Jahrzehnten reden wir über das Plastikproblem. Um es zu lösen braucht es technologische Ansätze“, sagt Dr. Carsten Gerhardt, Vorsitzender der gemeinnützigen Circular Valley Stiftung. Solche Ansätze liegen längst auf dem Tisch. „Start-ups aus aller Welt zeigen, dass Innovation schneller sein kann als Verhandlungen.“
Start-ups aus aller Welt arbeiten an Lösungen
Einige dieser Unternehmen hat der Circular Economy Accelerator der Circular Valley Stiftung bereits unterstützt. Das Start-up PROSERVATION etwa stellt Polsterverpackungen aus Nebenprodukten der Getreideindustrie her, BIOWEG ersetzt Mikroplastik durch Biomaterialien aus Lebensmittelabfällen und das Unternehmen Biomyc verwendet Myzel-Verbundwerkstoffe aus Pilzwurzeln und Pflanzen.
Daüber hinaus stellt NYUNGU AFRIKA Damenhygieneprodukte aus Ananasblatt- und Maisschalenfasern her, Midwest Composites nutzt Ernteabfälle für die Herstellung von Textilien und Vlastic bietet eine Alternative zu geschäumten Kunststoffen auf Flachsbasis.
Wenn Produkte das Ende ihrer Lebensdauer erreichen, können sie durch Recycling ein zweites erhalten. Ecoplastile verwandelt Abfälle in langlebige Dachziegel, Gescol macht Bauplatten aus Schuhsohlen und Novoloop nutzt schwer zu recycelndes Polyethylen zur Produktion von thermoplastischen Hochleistungs-Polyurethanen.
Chemisches Recycling zerlegt Kunststoffe in molekulare Bausteine. Das Unternehmen CARBOLIQ verwendet ein katalytisches Niedertemperaturverfahren, um gemischte Kunststoffe in Öl umzuwandeln, das fossile Rohstoffe ersetzen kann; Radical Dot extrahiert Monomere, um sie erneut verwenden zu können.
Zu chemischem Recycling hat Circular Valley in diesem Jahr einen Informationsfilm veröffentlicht, der die Möglichkeiten dieser Methode erklärt und verdeutlicht.
Kurz mal die Welt retten
Wie GreenTech-Start-ups aus dem DACH-Raum dazu beitragen, die Auswirkungen des Klimawandels zu mildern.
Ist es bereits zu spät, den Klimawandel aufzuhalten? Während diese Frage unablässig für hitzige Debatten sorgt, arbeiten Start-ups unermüdlich an Lösungen für die dringendsten Umweltprobleme. Die DACH-Region erlebt einen rasanten Anstieg von GreenTech-Start-ups, angetrieben durch technologische Innovationen und zunehmenden regulatorischen Druck. Dies zeigt u.a. das DACH GreenTech Software Mapping 2025 von Hi Inov und veranschaulicht, welche vielversprechenden Ansätze und Technologien die Zukunft des GreenTech-Ökosystems in Europa prägen.
Mapping der Herausforderungen und Lösungen
Das Mapping bietet einen umfassenden Überblick über die Softwarelösungen von GreenTech-Start-ups im DACH-Raum. Sie umfassen eine Vielzahl von Ansätzen, um den Anstieg der globalen Temperaturen einzudämmen und die damit einhergehenden wirtschaftlichen und gesellschaftlichen Herausforderungen zu bewältigen.
1. Messung und Optimierung des CO2-Fußabdrucks
Fortgeschrittene Techniken zur Datenerfassung und KI-gesteuerte Analysen helfen Organisationen, ihre Effizienz zu steigern und ihren CO₂-Fußabdruck zu reduzieren. Sie helfen Unternehmen, jährlich Emissionen von über 216.000 Tonnen CO₂-Äquivalenten zu vermeiden. Horizontale Plattformen bieten allgemeine Monitoring-Tools für branchenübergreifende Messdienste. Vertikale Lösungen wie die für die Immobilienbranche maßgeschneiderte ESG-Datenplattform Deepki integrieren branchenspezifische Anforderungen.
2. Beschleunigung der Energiewende
Softwarelösungen spielen eine entscheidende Rolle bei der Optimierung der Standortauswahl für die Produktion erneuerbarer Energien, der vorausschauenden Wartung von Infrastruktur und der Verbesserung der Energiespeicherung. Sie können die Schwankungen in der Stromeinspeisung erneuerbarer Energien mindern und somit die Abhängigkeit von fossilen Brennstoffen reduzieren. Das Stuttgarter Start-up metergrid ermöglicht es beispielsweise Mieter*innen in Mehrfamilienhäusern, umweltfreundlichen Solarstrom zu nutzen, der im selben Gebäude produziert wird (mehr dazu in der StartingUp 01/25).
3. Förderung der Kreislaufwirtschaft und Ressourcenoptimierung
Digitale Lösungen erleichtern die Schonung von natürlichen Ressourcen durch intelligentes Ressourcenmanagement, indem sie die Planung und Nutzung von Ressourcen verbessern. Durch den Einsatz von KI lassen sich viele Prozesse optimieren, darunter Recycling, Landwirtschaft und Wassermanagement. So reduziert das Berliner Start-up Freshflow Abfall, indem es die Nachbestellung von frischen Lebensmitteln mit Machine Learning automatisiert und optimiert. Darüber hinaus verbinden digitale Marktplätze Produzent*innen überschüssiger Ware mit potenziellen Abnehmer*innen, um Ressourcen effizierter zu nutzen.
4. Förderung von Nachhaltigkeitsinitiativen in Unternehmen
Unternehmen nutzen digitale Werkzeuge, um ihre Nachhaltigkeit über die regulatorischen Anforderungen hinaus zu verbessern. Zu den eingesetzten Lösungen zählen CO₂-Kreditbörsen, die es Organisationen ermöglichen, Emissionen durch strukturierte Märkte auszugleichen, und Mitarbeiterengagement-Plattformen, die die Teilnahme der Belegschaft an ESG-Initiativen fördern. Start-ups wie das Hamburger CarbonStack unterstützen Unternehmen bei der Erstellung von Nachhaltigkeitsberichten und dabei die relevanten Richtlinien einzuhalten.
Die Entwicklung von 2023 bis heute
Insgesamt zeigt das Mapping ein reiferes und strukturierteres GreenTech-Ökosystem, das Europas Position als Pionier in digitalen Klimaschutzlösungen stärkt. Die Entwicklung zwischen den Mappings aus den Jahren 2023 und 2025 verdeutlicht drei wichtige Trends:
1. Anstieg der Anzahl der angebotenen Softwarelösungen
Die steigende Nachfrage nach nachhaltigkeitsorientierten Innovationen in verschiedenen Branchen hat das Wachstum des GreenTech-Ökosystems beschleunigt und zu einem rasanten Anstieg der angebotenen Softwarelösungen geführt.
2. Regulatorisch getriebene Fortschritte
Aufgrund des zunehmenden regulatorischen Drucks wächst der Anteil der angebotenen Lösungen, die auf Compliance-Bedürfnisse wie CSRD, die Rückverfolgbarkeit von Produkten und transparente CO₂-Buchhaltung eingehen. Es werden zunehmend vertikalisierte Monitoring-Tools entwickelt, um spezialisierte Datensätze und branchenspezifische Algorithmen zu erstellen.
3. Einfluss von generativer KI
Der Einsatz von generativer KI nimmt zu. Neue Anwendungsfälle im Bereich Nachhaltigkeit umfassen verbesserte Datenanalyse, automatisierte Compliance-Berichterstattung, sowie die Echtzeit-Optimierung von CO₂-Fußabdrücken und Ressourcenmanagement.
Fazit: Ein florierendes Ökosystem mit starker europäischer Führung
Der Klimawandel stellt eine immense Herausforderung dar, deren Bewältigung innovative technologische Lösungen erfordert. Das GreenTech Mapping 2025 verdeutlicht die führende Rolle Europas bei der Entwicklung dieser Lösungen und zeigt ein reiferes GreenTech-Ökosystem mit großer Dynamik. Durch den Einsatz fortschrittlicher Datenanalysen, KI und Automatisierung sind Start-ups in der DACHRegion gut positioniert, um sowohl wirtschaftlichen als auch ökologischen Mehrwert zu schaffen. Sie werden Unternehmen und politischen Entscheidungsträger*innen dabei helfen, den Übergang zu einer nachhaltigeren Wirtschaft zu beschleunigen und die Folgen des Klimawandels einzudämmen.
Der Autor Dr. Wolfgang Krause leitet als Managing Partner das Deutschlandgeschäft des auf B2B-Digitallösungen spezialisierten VC-Fonds von Hi Inov.
Die Rolle von natürlichem Licht in modernen Architekturkonzepten
Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.
Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.
Das wachsende Bewusstsein für Lichtqualität
In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.
Architektonische Vielfalt dank Tageslicht
Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.
Energieeffizienz und Gesundheit
Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.
Materialauswahl und technologische Innovationen
Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.
Planungsaspekte für moderne Gebäude
Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.
Gestalterische Freiheit durch Tageslichtlösungen
Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.
Inspirierende Beispiele aus der Gegenwart
Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.
Ausblick auf künftige Entwicklungen
Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.
„Österreich hat einen langen Atem – und das zahlt sich im Bereich Applied AI aus“
Als führende Standorte in Sachen Künstliche Intelligenz liegen die USA und Asien auf der Hand, doch auch in Österreich gibt es eine vielfältige AI-Landschaft. Welche Vorteile der Standort für künstliche Intelligenz mit sich bringt und welche Rolle dabei Applied AI spielt, weiß Clemens Wasner, Gründer von AI Austria und CEO der EnliteAI.
Clemens Wasner ist Gründer des österreichischen Verbandes für Künstliche Intelligenz, AI Austria und CEO des Wiener Venture Studios EnliteAI. Der studierte Informatiker arbeitete über ein Jahrzehnt in Asien, bevor er 2017 EnliteAI gründete.
Herr Wasner, Sie kennen die AI-Szene aus erster Hand. Wie gut ist Österreich im internationalen Vergleich aktuell aufgestellt, wenn es um Applied AI geht?
Gemessen an seiner Größe steht Österreich erstaunlich gut da. Unsere AI–Landscape verzeichnet mittlerweile über 450 Unternehmen, die aktiv mit KI arbeiten – nicht nur Start-ups, sondern auch klassische Industrieunternehmen, Dienstleister und der öffentliche Sektor. Gerade im Bereich der industriellen Anwendungen ist Österreich breit aufgestellt: Es gibt zahlreiche Corporates, die eigene Competence Center gegründet, Ausgründungen vorgenommen oder Lizenzmodelle für KI aufgebaut haben. Auch die Zahl der Inkubatoren und Corporate Venture Capitalisten ist beachtlich. Das Thema ist in der Realwirtschaft angekommen – und das nicht erst seit gestern. Bereits 2018 gab es hierzulande einen deutlichen Aufschwung. Im Bereich der Spitzenforschung sind wir ebenfalls stark: Mit drei sogenannten ELLIS-Hubs – European Laboratory for Learning and Intelligent Systems – gehören wir zur europäischen Spitze, gemessen an der Größe des Landes.
Sie sprechen beim Blick auf Österreich oftmals vom „AI-Standort mit langem Atem“. Was genau meinen Sie damit und was macht aus Ihrer Sicht einen exzellenten Standort für AI-Start-ups aus?
Der „lange Atem“ ist positiv gemeint und beschreibt das, was Österreich im Bereich Forschung & Entwicklung auszeichnet: kontinuierliche Investitionen, strategischer Weitblick und langfristige Förderstrukturen. Die Steiermark war lange OECD-Spitzenreiter bei F&E-Ausgaben, Wien verfügt über eine dichte Forschungslandschaft. Das sind keine kurzfristigen Hypes, sondern über Jahrzehnte gewachsene Strukturen. Österreich verfügt zudem über eine differenzierte Förderarchitektur, die alle TRL-Stufen abdeckt – von der Grundlagenforschung bis zur Markteintrittsunterstützung. Auch Clusterstrukturen spielen eine Rolle: In Life Sciences etwa gibt es in Wien und Graz funktionierende Ökosysteme, in denen zunehmend auch KI eine Rolle spielt. Diese Verankerung ermöglicht Planbarkeit, die gerade in technologieintensiven Bereichen entscheidend ist.
Zu den Schlüsselfaktoren einen erfolgreichen Standorts zählen Infrastruktur, Talent Pool und Anwendungsmöglichkeiten. Wo sehen Sie hier derzeit die größten Hebel – und auch die größten Defizite – in Österreich?
Ein klarer Vorteil liegt in der Verfügbarkeit von Talenten: Wien zieht seit Jahren hochqualifizierte Developer aus dem osteuropäischen Raum an. Der AI-Fachkräftemangel ist hier weniger ausgeprägt als in anderen europäischen Hauptstädten. Hinzu kommt: Österreich bildet mehr AI-Absolventen aus, als die Wirtschaft derzeit absorbieren kann. Das schafft einen Bewerbermarkt, der gerade für Start-ups günstig ist. Auch Standortfaktoren wie Lebensqualität und erschwingliche Mieten machen zum Beispiel die Hauptstadt Wien attraktiv. Als Besonderheit sehe ich zudem den aktiven Zugang der Stadt: Wien versteht sich als First Client für KI-Anwendungen, etwa in der Analyse von Geodaten, IoT oder der Digitalisierung von Baueinreichprozessen. Hier ist wesentlich mehr Offenheit für politische Vergabe zu finden als in anderen Ländern. Weniger stark ist Wien in der Spitzenforschung vertreten, hier liegt Linz mit der JKU vorn. Aber man kann als kleines Land nicht alles abdecken – und sollte dort Schwerpunkte setzen, wo bestehende Stärken ausbaubar sind.
Was war der Gründungsimpuls für EnliteAI und wie ist Ihr Venture Studio heute aufgestellt?
Ich kam 2016 nach zehn Jahren in Asien zurück nach Österreich. In China und Japan war KI allgegenwärtig, ein regelrechter Hype. Zurück in Europa herrschte Funkstille – das war ein Kulturschock. Ich wollte dem Thema hierzulande Schub geben: 2017 gründete ich den Verband AI Austria und kurz darauf EnliteAI. Unsere Erkenntnis aus früheren Projekten zeigte, dass viele Unternehmen gute Ideen, aber keine Ressourcen zur Umsetzung hatten. Daraus entstand das Venture Studio: Wir entwickeln Prototypen gemeinsam mit Unternehmen und gründen darauf spezialisierte Start-ups. Aktuell sind wir 20 Personen und verfolgen zwei Themen – Detekt, das sich auf den Bereich Mobile Mapping spezialisiert hat, und ein weiteres im Stromnetzmanagement. Mit EnliteAI möchten wir künftig weitere Projekte unterstützen und bereiten dafür eine Dual-Entity-Struktur mit einem eigenen Fonds vor. Ziel ist es, das Modell professionell zu skalieren und Investoren direkt in die Spin-outs zu bringen.
Rechenleistung zählen zu den Schlüsselressourcen in der AI. Was braucht es aus Ihrer Sicht, damit europäische Standorte hier nicht dauerhaft in Abhängigkeit geraten?
Realistisch betrachtet: Die Abhängigkeit besteht bereits. Die großen Hyperscaler sind US-dominiert, ebenso Chips, Kommunikationstools, Social Networks. Europa muss in die digitale Souveränität investieren. Erste Schritte wie AI Factories sind wichtig, aber nicht ausreichend. Wir brauchen europäische Cloud-Anbieter, Chipproduktion auf europäischem Boden und eine nachhaltige Energiepolitik. Frankreichs KI-Boom basiert auf Atomstrom – weil er langfristig planbar ist. Diese Planbarkeit fehlt in vielen europäischen Ländern derzeit. Ohne Strom gibt es keine KI. Auch das zeigen Stimmen von Sam Altman, Elon Musk und anderen. Hier ist ein strategischer Paradigmenwechsel notwendig.
Sie sprachen bereits die vielfältige Landschaft von kleinen und mittleren Unternehmen in Österreich an, die offen für KI sind. Wie gut funktioniert das Matching zwischen Start-ups und klassischen Industrieunternehmen?
Österreich macht hier sehr viel richtig. Es gibt ein breites Netz an Förderinstrumenten – von der Österreichischen Forschungsförderungsgesellschaft FFG über die Austria Wirtschaftsservice bis hin zu regionalen Wirtschaftskammern. Zudem bietet Österreich eine Forschungsförderungsprämie an, bei der 14 Prozent der F&E-Ausgaben quasi mit einem Blankoschein gefördert werden können. Zudem organisieren viele Institutionen aktiv Matchmaking-Events, etwa im Rahmen von PreSeed-, AI-Adoption- oder Innovationsprogrammen. Hinzu kommt der Industry-Startup-Marktplatz mit mehreren Tausend registrierten Unternehmen. Auch Pitchings werden gefördert. Das Ziel ist stets, AI nicht nur in der Theorie zu belassen, sondern in die Realwirtschaft zu bringen. Trotzdem: Viele Unternehmen wissen noch immer nichts davon. Hier braucht es also noch mehr Aufklärung.
Welcher KI-Standort – in Österreich und darüber hinaus – hat Sie zuletzt positiv überrascht?
In Österreich ist Linz für mich der Hotspot schlechthin – die Kombination aus Spitzenforschung und erfolgreichem Technologietransfer ist dort besonders gut gelungen. International beeindruckt mich Twente in den Niederlanden: kein großer Name, aber mit klarer Strategie. Sie haben das Spin-out-Modell von Oxford und Cambridge adaptiert und konsequent umgesetzt – mit IP-Offices, Gründungsberatung und Infrastruktur für Start-ups. Ein weiteres Vorbild ist Heilbronn mit den Campus Founders: Sie haben, unterstützt durch die Dieter Schwarz Stiftung, einen Ort für Unternehmertum und Innovationen geschaffen und könnten Vorbild für viele europäische Regionen werden. Viele Stiftungen schaffen Parks oder Schlösser, aber wesentlich gewinnbringender wäre die Förderung von Entrepreneurship wie es in Heilbronn passiert statt Museumsstiftung. Europa braucht diese neue Denkweise.
Clemens Wasner, vielen Dank für das Gespräch.
Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin
Was Unternehmen über KI-Agenten wissen müssen
Künstliche Intelligenz in Form autonomer Agenten gewinnt rasant an Bedeutung. Doch wie arbeiten diese KI-Agenten? Was ist bei der Umsetzung zu beachten? Hier gibt's die Antworten.
Die Idee, dass autonome Systeme eng mit Menschen zusammenarbeiten und sie gezielt unterstützen, ist keine Vision mehr, sondern Realität. Während bisher eine umfassende Problemlösungskompetenz im Hintergrund fehlte, bringen KI-Agenten genau diese Fähigkeit mit und übernehmen zunehmend vielfältige Aufgaben in der Arbeitswelt. Wir erklären, was Unternehmen über KI-Agenten wissen müssen.
Was sind KI-Agenten und auf welcher Technologie basieren sie?
KI-Agenten sind Softwaresysteme, die eigenständig Aufgaben ausführen, aus Erfahrungen lernen und dynamisch mit ihrer Umgebung interagieren. Ihr Ziel ist es, Aufgaben autonom zu lösen, ohne dass ein kontinuierliches menschliches Eingreifen notwendig ist. Im Unterschied zu herkömmlichen Automatisierungslösungen bewältigen KI-Agenten selbst komplexe Anforderungen, indem sie sich an neue Bedingungen anpassen. Auch werden sie im Gegensatz zu universellen LLMs in der Regel fein abgestimmt, um Relevanz und Datenschutz zu gewährleisten. Sinnvoll ist eine kontextbezogene Architektur, die kausale KI, Document AI und multimodale Logik kombiniert und damit optimal auf geschäftliche Anwendungsfälle zugeschnitten ist.
In welchen Bereichen der Arbeitswelt entfalten KI-Agenten ihr Potenzial?
KI-Agenten finden in nahezu allen Unternehmensbereichen Einsatzmöglichkeiten – von der Beantwortung einfacher Anfragen bis hin zur Steuerung komplexer Prozesse. Eingebettet in CRM-Plattformen analysieren sie riesige Datenmengen, die Unternehmen manuell nicht mehr auswerten können. Anstatt die Ergebnisse lediglich zu präsentieren oder Kontakte nach Prioritäten zu sortieren, qualifizieren KI-Agenten auch noch automatisch Leads, schlagen passende Angebote vor und beantworten Kundenanfragen. Oder anders formuliert: Während herkömmliche Tools in der Regel auf statischen Wenn-dann-Regeln basieren, führt die neue Generation hyperpersonalisierte Aktionen nahezu in Echtzeit aus. Diese Entwicklung entlastet Mitarbeiter von Routineaufgaben und gibt ihnen Raum, sich auf strategisch wichtige Aufgaben zu konzentrieren. Unternehmen wiederum können ohne großen Aufwand Tausende von Kunden individuell betreuen.
Werden KI-Agenten den Arbeitsmarkt verändern?
Diese Frage lässt sich nicht pauschal beantworten. Es entstehen durch den verstärkten Einsatz von KI-Lösungen neue Berufsfelder – insbesondere bei der Entwicklung, Integration und Wartung solcher Agentensysteme werden qualifizierte Fachkräfte benötigt. Gleichzeitig stellt sich die Herausforderung, bestehende Mitarbeitende gezielt im Umgang mit diesen Technologien weiterzubilden und deren digitale Kompetenzen auszubauen. Eines muss klar sein: Das Ziel von KI-Agenten ist es nicht, menschliche Arbeitskraft zu ersetzen, sondern deren Fähigkeiten zu erweitern. Mitarbeitende können sich somit stärker auf komplexe Kundeninteraktionen oder die Entwicklung innovativer Kampagnen konzentrieren, während ihnen die KI zur Hand geht.
Worauf müssen Unternehmen bei der Auswahl von KI-Agenten-Lösungen achten?
In erster Linie benötigen sie eine digital ausgereifte Umgebung mit einheitlichen Datenformaten, optimierten Prozessen und regelbasierten Automatisierungen, um den ROI steigern zu können. Anschließend müssen sie sicherstellen, dass ihre KI-Systeme den geltenden Datenschutzbestimmungen entsprechen und sensible Kund*innendaten optimal geschützt sind. Transparenz und Nachvollziehbarkeit der KI-Entscheidungen sind ebenfalls essenziell, um das Vertrauen von Kunden und Mitarbeitenden nicht zu gefährden. Auf technischer Seite ist eine interoperable Lösung notwendig, die sich so nahtlos wie möglich in die bestehende IT-Umgebung integrieren lässt. Zu den weiteren Aspekten zählen die Priorisierung der kontextuellen Abstimmung, da Agenten geschäftsspezifische Arbeitsabläufe und Datenformate verstehen müssen, sowie die Nutzung eines Federated-Model-Ansatzes statt einheitlicher LLM-Frameworks, um Effizienz, Erklärbarkeit und Kosten zu optimieren.
Wie binden Unternehmen ihre Mitarbeitenden am besten ein?
Zunächst einmal ist ein grundlegendes Change Management erforderlich. Die Mitarbeiterinnen und Mitarbeiter müssen verstehen, dass die KI ihnen nicht die Arbeit wegnimmt, sondern sie unterstützen soll. Sinnvoll ist auch ein Low-Code-Ansatz: Maßgeschneiderte KI-Applikationen und automatisierte Workflows steigern die Arbeitseffizienz in Abteilungen um ein Vielfaches – sogar Mini-Anwendungen, die lediglich einfache Aufgaben übernehmen. Jedoch können zentrale IT-Abteilungen, die mit Entwicklungsanfragen aus verschiedenen Abteilungen überhäuft werden, diese kaum bewältigen. Mit einer Low-Code-Application-Plattform (LCAP) können auch Mitarbeiter ohne Programmierkenntnisse einfache KI-Anwendungen selbst erstellen. Möglich machen das einfache Drag-and-Drop-Optionen und vorgebaute Module, die je nach Wunsch kombinierbar sind.
Fazit
KI-Agenten sind als kollaborative Partner zu verstehen, nicht als Ersatz für den Menschen. Künftig werden wir eine Multi-Agent Collaboration sehen. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um selbst die komplexesten Herausforderungen effizient zu lösen.
Der Autor Sridhar Iyengar ist Managing Director von Zoho Europe.
5 Tipps für GPT-Sichtbarkeit im Netz
Warum klassisches SEO allein nicht mehr ausreicht und wie Unternehmen für die KI-Antworten der GPT-Modelle sichtbar werden.
Die Spielregeln der digitalen Sichtbarkeit werden gerade neu geschrieben – und die Unternehmen müssen sich neu aufstellen. Denn während viele Unternehmen ihre Strategien noch immer ausschließlich auf Google-Rankings und SEO-Kriterien ausrichten, verlagert sich die digitale Aufmerksamkeit längst in Richtung KI: Sprachmodelle wie ChatGPT, Claude oder Gemini ersetzen zunehmend die klassische Suche. Sie liefern keine Trefferlisten mehr, sondern direkte, aufbereitete Antworten – oft mit konkreten Empfehlungen und Verlinkungen. Für Marken, Produkte und Unternehmen wird es damit entscheidend, in diesen zusammengefassten Antworten stattzufinden. Das Stichwort hierfür ist technisches SEO für KI-Rankings.
Suchmaschinen waren gestern das führende Element in der Sortierung von Wissen im Netz und vor allem das Google-Ranking war entscheidend für die Sichtbarkeit von Informationen und Seiten. In Zukunft entscheiden dagegen Sprachmodelle darüber, welche Inhalte gesehen, zitiert und empfohlen werden. Und wer in diesen Systemen nicht genannt wird, verliert den direkten Draht zur Zielgruppe.
Diesen Paradigmenwechsel vom Google-Ranking zur Antwortlogik hat die SMAWAX, die auf Strategieberatung spezialisierte Agentur der Smarketer Group, erstmals systematisch im Rahmen eines Whitepapers analysiert (s. Link am Ende des Beitrags). Die Expert*innen erklären dabei detailliert, wie GPT-Modelle Inhalte auswählen – und welche Inhalte von den Systemen überhaupt referenziert werden dürfen. Die zentrale Erkenntnis: Suchmaschinenoptimierung nach alten Regeln greift zu kurz, ist aber weiterhin die Sichtbarkeitsgrundlage. Denn Sprachmodelle wie ChatGPT denken nicht in Keywords und Rankings, sondern in semantischen Relevanzräumen, Entitätenbeziehungen und struktureller Klarheit.
Inhalte müssen modular und semantisch präzise sein – doch das reicht nicht
Es geht nicht mehr um Top-Rankings – es geht darum, die richtige Antwort zu sein. Wir müssen SEO neu denken – als Schnittstelle zwischen Struktur, Relevanz und maschinellem Verstehen. Inhalte müssen dazu maschinenlesbar, modular aufgebaut und semantisch präzise sein. Nur dann haben Unternehmen eine Chance, in den Empfehlungslogiken von Claude, GPT & Co. aufzutauchen.
Besonders überraschend ist dabei aber, dass viele Unternehmen in GPT-Antworten zwar durchaus latent präsent, aber nicht sichtbar sind. Der Grund hierfür sind unscharfe Entitäten, fehlende „About“-Seiten, keine Verankerung in externen Quellen wie Wikidata, Trustpilot oder LinkedIn. Die Folgen wirken sich negativ auf die Marken aus und sorgen für Fehlinformationen: KI-Modelle verwechseln Marken, halluzinieren Funktionen oder verschweigen relevante Angebote. Halluzinationen sind in Wahrheit ein strategischer Hinweis auf Unsichtbarkeit. Wenn GPT ein Produkt falsch beschreibt oder dich mit einem Mitbewerber verwechselt, zeigt das: Deine Inhalte sind zwar irgendwo im Modell – aber nicht stabil genug verankert, um korrekt genannt zu werden.
Fünf konkrete Hebel für bessere GPT-Sichtbarkeit
Diese praxisnahe Handlungsempfehlungen können Unternehmen sofort umsetzen können – unabhängig davon, ob sie im B2B- oder B2C-Bereich aktiv sind.
1. Entitäten definieren: Jede Marke braucht heute eine kanonische „About“-Seite, ergänzt um ein Wikidata-Profil, semantische Markups und gleiche Namensverwendungen auf Plattformen wie LinkedIn oder Handelsregister.
2. Aktualität signalisieren: GPT-Modelle bevorzugen Inhalte mit klaren Update-Daten (z.B. dateModified). Ohne erkennbaren Pflegezustand gelten Inhalte als veraltet – und werden ausgefiltert.
3. Bing wird zum Gateway: Weil GPT seine Websuche auf Bing stützt, ist dessen Indexierung entscheidend. Wer dort nicht sauber auffindbar ist, existiert in GPT-Antworten nicht.
4. Content chunkbar machen: Inhalte sollten nicht mehr aus langen Fließtexten bestehen, sondern in modularen Blöcken mit H2-Strukturen, Listen und Zwischenfazits aufgebaut sein.
5. Externe Signale einbinden: Erwähnungen auf Trustpilot, Reddit oder in der Fachpresse stärken die semantische Autorität – und erhöhen die Chance, von Sprachmodellen zitiert zu werden.
Fazit
Die neue Sichtbarkeit entsteht durch das, was das Modell nicht selbst erzeugen kann – sie entsteht also nicht über Rankings, sondern über Relevanzräume. Wer auf Standard-Content setzt, wird paraphrasiert oder übergangen. Wer dagegen einzigartigen, strukturierten und technisch klaren Content liefert, wird empfohlen.
Zum Weiterlesen: Das Whitepaper steht zum kostenlosen Download bereit unter www.smawax.com/whitepaper-ki-sichtbarkeit
KI clever eingesetzt: Können deutsche Entwickler ihre App-Ideen mit Vibe Coding umsetzen?
Wie Vibe Coding, eine neue KI-gestützte Methode der App-Entwicklung, es heute deutlich einfacher macht, aus einer Idee ein funktionierendes digitales Produkt entstehen zu lassen.
Die Zeiten, in denen man für die Umsetzung einer App monatelang ein Entwicklerteam zusammenstellen, riesige Budgets planen und unzählige Meetings überstehen musste, scheinen langsam zu verblassen. Vibe Coding, eine neue KI-gestützte Methode der App-Entwicklung, macht es Gründern und kreativen Köpfen in Deutschland heute deutlich einfacher, aus einer Idee ein funktionierendes digitales Produkt entstehen zu lassen.
Was steckt hinter Vibe Coding?
Vibe Coding nutzt künstliche Intelligenz, um auf Basis einfacher Sprache Code zu erzeugen. Statt eine App Zeile für Zeile zu programmieren, beschreibt man, was sie können soll. Die KI wandelt diese Wünsche in Code um, der sich dann weiter anpassen und verfeinern lässt. Anders als bei klassischen No-Code-Plattformen entstehen keine bloßen Baukastenlösungen, sondern anpassbarer, individuell nutzbarer Code.
Im Unterschied zu Low-Code-Ansätzen braucht es keine aufwendige UI und keine grafische Umgebung, in der man mühsam Komponenten zusammensetzt. Stattdessen genügt es, der KI präzise zu erklären, welches Ergebnis angestrebt wird. Das spart nicht nur Zeit, sondern eröffnet auch Menschen ohne tiefgehendes Technikverständnis ganz neue Möglichkeiten.
Aktuell eignet sich dieser Ansatz besonders für die Entwicklung von Prototypen, Minimum Viable Products und überschaubaren Business-Apps. Wer dagegen komplexe Anwendungen mit tiefen Backend-Strukturen, Hochsicherheitsanforderungen oder extrem hoher Nutzerlast plant, stößt mit Vibe Coding derzeit noch an natürliche Grenzen. Doch für den ersten Schritt in die App-Welt ist dieses Werkzeug so vielversprechend wie kaum ein anderes.
Wie KI-basierte Entwicklung neue Möglichkeiten für Gründer eröffnet
In der Praxis bedeutet das: Was früher ein ganzes Entwicklerteam beschäftigt hätte, kann heute oft in wenigen Tagen oder sogar Stunden entstehen. Vibe Coding verkürzt die Entwicklungszeiten deutlich, die ersten funktionsfähigen Entwürfe stehen schneller zur Verfügung als je zuvor.
Nicht zu unterschätzen ist dabei auch die finanzielle Seite. Wo man früher fünfstellige Summen investieren musste, genügt heute oft ein Bruchteil davon, um einen ersten lauffähigen Prototypen zu testen. Damit wird der Einstieg in die App-Entwicklung auch für Gründer ohne Tech-Hintergrund realistischer. Kein Zwang mehr, einen CTO an Bord zu holen oder teure Agenturen zu engagieren.
Gerade in Deutschland, wo Gründungsteams häufig an fehlender Entwicklerkapazität scheitern, eröffnet diese Entwicklung eine völlig neue Dynamik. Wer eine gute Idee hat, kann sie dank Vibe Coding sehr viel leichter in die Realität umsetzen. Das fördert die Innovationskultur und macht Platz für mehr mutige Experimente.
Ein Beispiel, das hier besonders hervorsticht, ist die Founders Foundation in Ostwestfalen-Lippe. Mit gezielten Programmen und Workshops unterstützt sie Gründerinnen und Gründer dabei, KI-gestützte Methoden sinnvoll einzusetzen und so eigene digitale Produkte schneller auf die Straße zu bringen. Genau solche Impulse tragen dazu bei, dass sich der Trend immer stärker durchsetzt.
Welche deutschen Start-ups zeigen bereits, was mit KI und No-Code möglich ist?
Dass das alles keine Theorie mehr ist, sondern in deutschen Gründungszentren längst gelebt wird, zeigen einige aktuelle Beispiele sehr anschaulich. Leaping AI aus Berlin etwa entwickelt Voicebots, die im Kundenservice 70 Prozent aller Anfragen automatisiert beantworten. Eine Anwendung, die ohne moderne KI-Tools in dieser Geschwindigkeit und Qualität wohl kaum möglich wäre.
Auch qru aus Stuttgart beweist, was möglich ist. Mit ihren Videomarketing-Tools, die auf einem cleveren Mix aus Low-Code und KI basieren, können selbst kleinere Unternehmen ihre Marketingprozesse automatisieren und professionell gestalten, ohne dafür eine eigene IT-Abteilung zu benötigen.
Ein drittes Beispiel: Paul’s Job, ein Berliner Startup, das HR-Prozesse mit agentischer KI unterstützt. Recruiting und Personalverwaltung laufen dort in weiten Teilen automatisiert, was Gründern wie Personalabteilungen jede Menge Zeit und Nerven spart.
Diese und ähnliche Projekte zeigen deutlich, dass Vibe Coding und vergleichbare Methoden längst ihren Weg in die praktische Nutzung gefunden haben. Die Technologie entwickelt sich dabei so schnell weiter, dass immer mehr Gründer den Mut fassen, ihre App-Ideen mit solchen Ansätzen umzusetzen.
Warum die App-Entwicklung perspektivisch günstiger wird
Ein Blick auf die allgemeine Marktentwicklung macht schnell deutlich: App-Entwicklung wird in den kommenden Jahren noch günstiger und einfacher werden. Mit jedem Fortschritt der KI sinken die Kosten für die technische Umsetzung, gleichzeitig steigen die Möglichkeiten, individualisierte Lösungen zu entwickeln.
Das hat Folgen, insbesondere für kleinere und spezialisierte Anbieter. Wo früher nur große Unternehmen eigene Apps auf den Markt bringen konnten, öffnet sich der Zugang nun auch für kleinere Player. Gerade in Nischenmärkten entstehen so neue Chancen.
Ein besonders interessantes Feld ist aktuell der Gambling-Sektor. Lange Zeit galten die hohen Entwicklungskosten als Einstiegshürde für viele Anbieter. Inzwischen zeigt sich jedoch, dass speziell in diesem Bereich vermehrt Apps auf den Markt kommen, weil die technische Umsetzung dank KI-Tools deutlich günstiger geworden ist.
Aber nicht nur im Glücksspiel-Markt tut sich etwas. Health und Fitness, E-Learning, Content Creation sowie regionale Dienstleistungen profitieren in ähnlicher Weise von den neuen Möglichkeiten. Über Smartphones und Tablets gelangen viele dieser Lösungen direkt zu den Nutzern und ermöglichen eine viel engere Bindung als klassische Webanwendungen.
Wo klassische Entwicklerkompetenz weiterhin unverzichtbar bleibt
Natürlich hat auch Vibe Coding seine Grenzen. Gerade wenn es um anspruchsvolle Architektur, komplexe Backend-Systeme oder hochskalierbare Anwendungen geht, kommt man ohne erfahrene Entwickler nach wie vor nicht aus.
KI generiert Code auf Basis von Wahrscheinlichkeiten, was in der Praxis immer wieder zu fehlerhaften oder ineffizienten Strukturen führen kann. Qualitätssicherung, Testing und fundiertes Architekturwissen bleiben deshalb unerlässlich, sobald eine App mehr sein soll als ein einfaches MVP.
Auch bei Themen wie Performance, Sicherheit und Datenschutz kann KI derzeit noch nicht mithalten. Hier braucht es das Know-how klassischer Entwickler, um Anwendungen stabil und vertrauenswürdig zu machen.
Gerade für Anwendungen im Finanz- oder Gesundheitsbereich, wo hohe regulatorische Standards erfüllt werden müssen, bleibt der menschliche Faktor entscheidend. Vibe Coding ist ein fantastisches Werkzeug für den schnellen Einstieg und die Umsetzung erster Ideen, doch auf dem Weg zu einem ausgereiften Produkt wird klassisches Engineering weiterhin eine tragende Rolle spielen.
Vibe Coding bringt frischen Wind in die App-Entwicklung
Vibe Coding verändert die Art, wie in Deutschland Apps entstehen, in rasantem Tempo. Prototypen und erste marktfähige Tools lassen sich heute so schnell und günstig umsetzen wie nie zuvor. Für viele Gründer ohne Tech-Hintergrund eröffnen sich dadurch Möglichkeiten, die es vor wenigen Jahren schlicht nicht gab.
Die Beispiele aus der Startup-Szene zeigen eindrucksvoll, wie die neuen Werkzeuge bereits eingesetzt werden. Gleichzeitig bleibt klar: Für echte Skalierung, Sicherheit und Performance führt an klassischem Entwicklerwissen kein Weg vorbei.
Die Zukunft gehört wahrscheinlich zu einem hybriden Ansatz, bei dem KI als mächtiges Assistenzwerkzeug fungiert und Entwickler sich auf das konzentrieren, was KI noch nicht zuverlässig beherrscht. So entsteht Raum für mehr Innovation, mehr mutige Ideen und letztlich mehr spannende Apps. Und genau das dürfte der deutschen Tech-Szene mehr als guttun.
Münchner Scale-up Wemolo erreicht Break-even
Mit KI zur Profitabilität: Das 2019 gegründete Münchner Tech-Scale-up Wemolo, der "schrankenlose Parkraumspezialist", verzeichnet nach eigenen Angaben ein durchschnittliches Jahreswachstum von 280 Prozent, ist profitabel und verwaltet mehr als 255.000 Stellplätze in Europa.
Die digitale Transformation von Parkplätzen birgt großes Potenzial – vor allem, wenn sie nicht nur Schranken und Tickets eliminiert, sondern neue Geschäftsmodelle erschließt. In einem europäischen Markt für automatisierte Parksysteme, der auf 50 Milliarden Euro geschätzt wird, hat sich das Münchner Unternehmen Wemolo innerhalb kürzester Zeit in die erste Liga gearbeitet.
Mit einem Jahresumsatz von rund 40 Millionen Euro im Jahr 2024 und einer positiven EBIT-Marge im ersten Quartal 2025 hat das Scale-up trotz des signifikanten Wachstums die Gewinnzone erreicht. Die jährliche Wachstumsrate betrug seit Gründung 2019 durchschnittlich 280 Prozent (CAGR), was Wemolo laut Deloitte zu einem der am schnellsten wachsenden Tech-Unternehmen Deutschlands macht. Nach mehreren Finanzierungsrunden mit insgesamt rund 30 Millionen Euro (650.000 € Pre-Seed, 4,7 Mio. € Seed, 15 Mio. € Series A und zuletzt 10 Mio. € Growth Financing durch Partner wie die CIBC Innovation Banking) untermauert Wemolo damit die Attraktivität digitaler Parklösungen als Wachstumsbranche.
“Wir haben unsere Skalierungsphase genutzt, um parallel die Entwicklung unserer Technologie zu beschleunigen und rasch Marktanteile in fünf europäischen Ländern zu gewinnen”, sagt Wemolo-Mitgründer und CEO Dr. Yukio Iwamoto. Zu den Investor*innen zählen neben den strategischen Partnern Armira Growth und henQ auch die Flix Founders (Gründerteam des Mobilitätsanbieters Flix), wobei Jochen Engert dem Unternehmen als Beirat zur Seite steht.
"Dass sich Wemolo nach vergleichsweise kurzer Zeit ins Plus gearbeitet hat, ist das Ergebnis unseres kapitaleffizienten Wachstumskurses - mit deutlich weniger Investitionskapital als bei vergleichbaren Tech-Unternehmen. Unser KI-basiertes System liefert für Immobilieneigentümer, Asset-Manager, Einzelhandel und Kommunen nicht nur digitale Parklösungen, sondern auch wertvolle Daten für strategische Geschäftsentscheidungen", so Jochen Engert.
Vom Campus-Projekt zur Digitalplattform
Ursprünglich im Juli 2019 aus einem Projekt der UnternehmerTUM entstanden, betreibt Wemolo heute KI-basierte Kamerasysteme zur Kennzeichenerfassung und Abrechnung an über 3.000 Standorten in fünf Ländern. Täglich erfasst das Unternehmen mehr als zwei Millionen Parkvorgänge digital und wickelt diese ab. Das Unternehmen beschäftigt aktuell rund 250 Mitarbeitende und verwaltet insgesamt 255.000 Stellplätze – von Supermärkten und zentralen Parkhäusern über Krankenhäuser bis hin zu Freizeitanlagen wie Skigebieten und Badeseen.
"Unsere Profitabilität basiert nicht auf Kostendiät, sondern auf nachhaltiger Skalierung: mehr Volumen bei stabilen Fixkosten, bessere Flächenauslastung und immer wertvollere Daten-Assets für unsere Kunden", erklärt CEO und Mitgründer Jakob Bodenmüller. "Dank unserer KI-basierten Plattform können wir sehr schnell auf Marktanforderungen reagieren und unsere Lösung kontinuierlich weiterentwickeln."
Geschäftsmodell mit messbarem Mehrwert für Betreiber*innen
Das Kernprinzip: Mithilfe KI-basierter Computer Vision werden Ein- und Ausfahrten erfasst, was Schranken, Tickets, Parkscheiben und vor allem kostenintensives Personal vor Ort überflüssig macht. Wemolo bietet verschiedene Module für die Parkraumdigitalisierung - von der Überwachung kostenfreier Flächen bis zu volldigitalen Bezahlsystemen, die auf die jeweiligen Kund*innenanforderungen angepasst werden können. Die intelligente Plattform ermöglicht nicht nur die effiziente Bewirtschaftung von Parkraum und reibungslose Nutzer*innenerlebnisse, sondern liefert auch wertvolle Daten für optimierte Geschäftsentscheidungen.
“Wir liefern anonymisierte, aber hochgradig aussagekräftige Daten zur Flächennutzung”, erklärt CPTO und Mitgründer Bastian Pieper. “Ein Beispiel: Durch die effektive Vermeidung von Fremdparkern konnte einer unserer Lebensmittelkunden die Verfügbarkeit seiner Kundenparkplätze deutlich erhöhen. Das Ergebnis: Ein messbarer Anstieg des Filialumsatzes, der bei typischen Margen des Lebensmitteleinzelhandels eine Gewinnsteigerung im mittleren fünfstelligen Bereich pro Jahr ermöglicht.”
“Bei gewerblichen Immobilienprojekten ermöglichen unsere präzisen Nutzungsdaten eine optimierte Stellplatzdimensionierung, was für Investoren zu signifikanten Einsparungen bei Tiefgaragen-Investitionen führt und die Gesamtrendite der Immobilie verbessert”, ergänzt Pieper.
Wachstumsfinanzierung strategisch eingesetzt
Den Break-even wertet das Management als Bestätigung des Geschäftsmodells, aber auch als Signal des wachsenden Bedarfs am Markt. “Wir merken, dass immer mehr Unternehmen und Immobilieneigentümer aktiv nach einer unkomplizierten, verlässlichen Lösung suchen, um ihre Parkflächen zu digitalisieren – und zugleich relevante Daten zu erheben. Das Thema steht weiterhin am Anfang. Wir wollen Wemolo zum stärksten Anbieter auf dem Feld der smarten Parklösungen ausbauen”, sagt Iwamoto.
“Wir verfolgen bei unserer Technologieentwicklung einen hybriden Ansatz”, erklärt Pieper. “Die entscheidenden Komponenten – unsere custom-trainierte KI und die zentrale Softwareplattform – entwickeln wir komplett inhouse, während wir Spezialkomponenten wie Bezahlautomaten nach unserem Design in Deutschland fertigen lassen.”
“Wir setzen auf robuste Industrial-Grade-Hardware, auf der unsere speziell trainierte KI läuft, um jedes Fahrzeug unter allen Wetterbedingungen zuverlässig zu erfassen. Diese Kombination aus eigener Software-Expertise und gezielter Hardware-Integration ermöglicht uns viel schnellere Innovationszyklen als bei traditionellen Parksystembetreibern oder reinen Software-Anbietern”, führt Pieper fort. “Ähnlich wie Tech-Vorreiter aus dem Silicon Valley bringen wir neue Features und KI-Optimierungen in Wochen statt Quartalen zur Marktreife.”
Expansion und Herausforderungen des Wachstums
Wemolo ist bereits in fünf europäischen Ländern aktiv, darunter Deutschland, Österreich, Schweiz, Polen und Italien. Für 2025 plant das Unternehmen, seine digitalen Bezahllösungen in diesen und weiteren europäischen Märkten auszubauen. Dabei setzt das Scale-up auf ein Netzwerk aus strategischen Kooperationen mit Lebensmitteleinzelhändlern, Immobilienentwicklern und kommunalen Einrichtungen.
“Die klassischen Schrankenparksysteme sind in vielen Regionen noch Standard, aber der Markt wandelt sich rapide”, sagt Bodenmüller. “Unser digitales Konzept steigert den Verbraucherkomfort, die Wirtschaftlichkeit von Immobilien und erfüllt ESG-Anforderungen.”
Die größten Herausforderungen beim weiteren Wachstum sieht das Management vor allem in der unterschiedlichen Regulierung zur Kameraüberwachung in den europäischen Ländern sowie in der Akzeptanz schrankenloser Systeme bei traditionell orientierten Betreibern. “Mit unserer DSGVO-konformen Technologie und messbaren Kostenvorteilen durch den Wegfall wartungsintensiver Schranken und Ticketsysteme überzeugen wir den Markt”, betont Pieper.
Ambitionierte Ziele in einem wachsenden Markt
Vor dem Hintergrund der Profitabilität plant Wemolo nun den nächsten Wachstumsschritt. “Wir sind im digitalen Parksegment bereits Marktführer in Europa und wollen zum absolut stärksten Provider werden”, sagt Iwamoto. “Dass wir jetzt bereits profitabel sind, verschafft uns die nötige Unabhängigkeit, um in Technologie, Teams und Expansion zu investieren, ohne dabei von externem Kapital abhängig zu sein." Branchenexperten prognostizieren für den europäischen Markt digitaler Parksysteme ein anhaltend starkes Wachstum. Denn bislang gelten weniger als 25 Prozent des auf rund 50 Milliarden Euro geschätzten Gesamtmarktes als technologisch modernisiert – etwa durch kamerabasierte Zugangssysteme, automatisierte Bezahlprozesse oder intelligente Flächenanalysen.
KI-Übergangsphase: Fluch und Segen
Zwischen Wundermaschine und Blackbox – Warum wir gerade in einer KI-Übergangsphase leben und was das generell für das Marketing bedeutet.
Künstliche Intelligenz (KI) verändert gerade in rasantem Tempo unsere Welt. Sie automatisiert Prozesse, entlastet Teams, liefert Analysen in Echtzeit und ermöglicht einen bisher nicht gekannten Grad an Personalisierung. Wer heute im Marketing arbeitet, kommt an KI nicht mehr vorbei – sei es beim Texten von Werbebotschaften, beim Targeting, in der Bildgenerierung oder der Erfolgsmessung.
KI verspricht Effizienz, Präzision und neue kreative Möglichkeiten. Doch die Euphorie wird zunehmend begleitet von einer neuen, ernüchternden Erfahrung: Künstliche Intelligenz kann auch Nutzererlebnisse verschlechtern, Prozesse intransparent machen – oder gar ganze Geschäftsmodelle gefährden. Der technologische Fortschritt ist zweifellos da, doch gesellschaftlich, wirtschaftlich und kulturell befinden wir uns noch mitten in einer Übergangsphase. Und das birgt Risiken – nicht nur für Plattformen, sondern auch für Unternehmen, die sie nutzen.
Beispiel Pinterest: Wenn der Algorithmus plötzlich entscheidet
Ein aktuelles Beispiel liefert Pinterest: Die visuelle Such- und Inspirationsplattform setzt verstärkt auf KI, um Inhalte effizient zu kategorisieren, Hassrede zu erkennen, urheberrechtlich geschützte Werke zu markieren oder Spam zu unterbinden. Was auf dem Papier sinnvoll und zukunftsgerichtet klingt – ein moderner „Content Safety Stack“ mit automatisierter Moderation –, hat in der Praxis zahlreiche Creator*innen und Unternehmen auf dem falschen Fuß erwischt.
Accounts wurden gelöscht, Pins blockiert oder ganze Seiten unsichtbar gemacht – oft ohne erkennbare Begründung. Was ist passiert? Die KI-Modelle bei Pinterest wurden darauf trainiert, problematische Inhalte automatisiert zu erkennen und Plattformregeln durchzusetzen. Doch wie in vielen KI-Systemen liegt der Teufel im Detail: Die Modelle sind noch nicht präzise genug, um zwischen legitimen und grenzwertigen Inhalten zuverlässig zu unterscheiden – vor allem in einem visuellen Umfeld wie Pinterest. Besonders problematisch wird es, wenn Nutzer*innen keine Möglichkeit haben, die Entscheidungen nachzuvollziehen oder effektiv dagegen vorzugehen.
Für Unternehmen, die Pinterest als Marketingplattform nutzen, ist das ein unkalkulierbares Risiko. Wer auf Sichtbarkeit und Reichweite angewiesen ist, kann es sich kaum leisten, dass automatisierte Systeme ohne Vorwarnung Inhalte sperren. Der Vertrauensschaden ist enorm.
Im Spannungsfeld der KI-Nutzung
Dieser Fall steht exemplarisch für ein zentrales Spannungsfeld der KI-Nutzung: Auf der einen Seite die große Hoffnung auf Automatisierung, Kostenersparnis und Kontrolle – auf der anderen Seite die Realität einer noch nicht vollständig ausgereiften Technologie, die häufig wie eine Blackbox agiert. Für Nutzer*innen bedeutet das: weniger Transparenz, weniger Kontrolle, mehr Frustration. Ähnliche Phänomene beobachten wir auch bei großen Social-Media-Plattformen wie Meta oder TikTok. Auch hier sorgen KI-basierte Moderationssysteme regelmäßig für Unmut – sei es durch falsch erkannte Verstöße, Einschränkungen der Reichweite oder Verzögerungen im Kundenservice, der durch automatisierte Antworten ersetzt wurde. Dabei geht es nicht um generelle Ablehnung von KI – sondern um die Art und Weise, wie sie implementiert und kommuniziert wird.
Gute KI ist unsichtbar – weil sie funktioniert
Das Marketing der Zukunft soll nicht nur effizient, sondern muss auch verantwortungsvoll sein. Es wird davon abhängen, wie gut Unternehmen die Balance finden zwischen Automatisierung und menschlicher Kontrolle. Zwischen der Verlockung, Prozesse zu beschleunigen, und der Notwendigkeit, Vertrauen zu erhalten. Gute KI ist unsichtbar – weil sie funktioniert. Sie analysiert, aber entscheidet nicht alleine. Zukunftsfähiges Marketing ist also geprägt von einer Kombination aus technologischer Intelligenz und menschlicher Relevanz. KI, Automatisierung und Datenanalyse ermöglichen eine bisher unerreichte Präzision: Zielgruppen werden individueller angesprochen, Inhalte in Echtzeit ausgespielt und Customer Journeys automatisiert optimiert. Personalisierung ist dabei kein Zusatz mehr, sondern Standard.
Gleichzeitig verändern sich die Erwartungen der Konsument*innen: Sie wollen authentische Marken, klare Haltung, Datenschutz und echte Mehrwerte – keine leeren Werbeversprechen. Deshalb wird Marketing künftig nicht nur effizient, sondern auch ethisch und wertebasiert sein müssen. Vertrauen wird zur zentralen Währung. Auch deshalb ist das Marketing der Zukunft vor allem Inhouse zu verorten. Agenturen befinden sich auf dem absteigenden Ast – sie sind teuer und liefern nicht die Ergebnisse, die Unternehmen und Marken wirklich benötigen. Zu dieser Entwicklung gehört auch, dass Inhouse-Marketing-Verantwortliche umfassend geschult werden müssen, damit sich der Einsatz von KI maximal einfach gestaltet und gleichzeitig äußerst produktiv ist.
KI ist weder Fluch noch Segen – sie ist ein mächtiges Werkzeug, das mit Bedacht eingesetzt werden muss. Wer KI einfach laufen lässt, riskiert Vertrauensverluste. Wer sie aber erklärt, einbettet und begleitet, kann gewinnen – an Effizienz, Qualität und Glaubwürdigkeit. Das Marketing der Zukunft ist nicht einfach KI-gesteuert. Es ist menschenzentriert – mit KI als starkem, aber verantwortungsbewusstem Assistenten.
Der Autor Bastian Sens gründete Sensational Marketing im Jahr 2010 – zunächst als klassische Onlinemarketing-Agentur. Im Laufe der Jahre kristallisierte sich jedoch ein alternativer Weg heraus, sodass sich das Unternehmen zu einer Onlinemarketing-Academy wandelte.

