Geschäftsideen Gesundheit: die Azteken als Ideengeber

Chia als Superfood


44 likes

Eugen Voth hat zusammen mit seinem Freund Andreas im Oktober 2013 auf einer Reise durch Lateinamerika zufällig die Chia-Samen kennengelernt. Hier erfuhren sie das erste Mal von den Geschichten über die Azteken und deren Nutzung von Chia als "Superfood" in der Medizin, Kosmetik und in der Ernährung. Ausgangspunkt für eine nahrhafte Geschäftsidee.

Natürlich haben Eugen und Andreas allein schon aus Neugier ein Päckchen Chia Samen direkt vom Produzenten mit nach Hause genommen. Zurück in Deutschland haben sie sich von den positiven Wirkungen dieser Wunderpflanze überzeugen können.

Das Problem war, dass Eugen und Andreas keinen Chia-Anbieter fanden, der ihnen gleichbleibend die Qualität bieten konnte, die sie erwarteten. Also reisten sie wieder nach Südamerika und gingen auf die Suche nach den besten Produzenten und Farmern für Chia-Samen. Das war der Beginn des eigenen Start-ups.

Unter der Marke Naduria verkaufen sie jetzt Chia-Samen in Deutschland. Und das mit viel Erfolg. Vom Erfolg der Geschäftsidee beflügelt nehmen die Gründer ständig neue Superfood-Produkte ins Sortiment auf, wie zum Beispiel Chia-Öl, Quinoa und Amaranth.

Diese Artikel könnten Sie auch interessieren:

Niedersachsens Labor der Zukunft ist digital

Zwei mit dem niedersächsischen DurchSTARTer-Preis 2025 ausgezeichnete Spin-offs aus Göttingen zeigen, wie hochkomplexe Forschung zu marktreifer Technologie wird – und dass Niedersachsen sich zu einem Knotenpunkt der Biomedizin entwickelt.

Die medizinische Diagnostik steht an einem Wendepunkt. Digitale wissenschaftliche Werkzeuge helfen beispielsweise dabei, Tumore besser und schneller zu erkennen sowie gezielter zu therapieren. Zwei mit dem niedersächsischen DurchSTARTer-Preis 2025 ausgezeichnete Spin-offs aus Göttingen, Histomography und GliTTher, zeigen, wie hochkomplexe Forschung zu marktreifer Technologie wird – und dass Niedersachsen sich zu einem Knotenpunkt der Biomedizin entwickelt.

Histomography digitalisiert komplette Pathologie-Proben zerstörungsfrei in 3D. Dazu nutzt das Laborsystem Röntgen-Phasenkontrast-Tomographie, eine Technologie, die feinste Strukturen sichtbar macht – ohne Gewebe zu färben oder zu schneiden. Die entstehenden 3D-Datensätze lassen sich direkt im Browser erkunden und auswerten. So werden kleinste Veränderungen und Tumore im Gewebe erkannt, die in 2D-Schnitten leicht übersehen werden. Histomography entwickelt dafür eine durchgängige Plattform: kompakter 3D-Scanner, Cloud-Infrastruktur und KI-gestützte Analysen greifen nahtlos ineinander. Langfristig soll die Technologie in Kliniken Routineuntersuchungen standardisieren – und die Diagnostik von der subjektiven Mikroskopie zu objektiven, datengetriebenen Entscheidungen führen.

KI & Bewertungen: Sichtbarkeit in einer neuen Suchrealität

Tipps und To-dos: Wie du dein Bewertungsmanagement strategisch aufsetzt und Sichtbarkeit und Vertrauen im KI-Zeitalter steigerst.

Generative Antworten in Suchmaschinen und Assistenten verändern die Spielregeln der Online-Sichtbarkeit. Nicht mehr nur klassische Rankings entscheiden, sondern die Frage, wem die KI genug vertraut, um es überhaupt zu nennen. Aktuelle, glaubwürdige und inhaltlich konkrete Bewertungen werden dabei zum Schlüsselsignal. Für kleine und mittlere Unternehmen bedeutet das: Bewertungsmanagement ist kein Nice-to-have mehr, sondern ein Pflichtprogramm, das Auffindbarkeit, Auswahl und Conversion spürbar beeinflusst. Im Folgenden erfährst du, wie du dein Bewertungsmanagement strategisch aufsetzen solltest, um Sichtbarkeit und Vertrauen im KI-Zeitalter zu steigern.

Warum Bewertungen jetzt geschäftskritisch sind

KI-Modelle zerlegen Rezensionen in viele kleine Bedeutungseinheiten und ziehen daraus ein konsistentes Bild. Welche Leistung wurde erbracht, an welchem Ort, mit welcher Qualität und für welchen Anlass. Aus den einzelnen Stimmen entsteht so ein Vertrauensprofil, das über bloße Sternesummen hinausgeht. Entscheidend ist nicht die bloße Menge, sondern die Frische und die inhaltliche Dichte der Aussagen. Eine Rezension wie „Schnell geholfen am Sonntag, sehr kompetente Beratung zu Reiseimpfungen“ liefert gleich mehrere Signale. Zeitliche Verfügbarkeit, thematische Expertise und konkreter Nutzen. Genau solche Details erhöhen die Wahrscheinlichkeit, in generativen Antworten aufzutauchen, wenn Menschen in ihrer Nähe nach einer Lösung suchen. Wer regelmäßig neue, authentische und präzise Bewertungen erhält, verschafft der KI verlässliche Hinweise und sichert sich dadurch mehr Sichtbarkeit in genau den Momenten, in denen Entscheidungen vorbereitet werden.

Bewertungsmanagement als Prozess, nicht als Aktion

Wirksam wird Bewertungsarbeit, wenn sie selbstverständlich Teil der täglichen Abläufe ist. Nach dem Kontakt freundlich um Feedback bitten, den Weg zur passenden Plattform so kurz wie möglich machen, interne Zuständigkeiten klar regeln und Reaktionszeiten verbindlich festlegen. Aus diesen scheinbar kleinen Schritten entsteht ein stabiler Rhythmus, der kontinuierlich neue Kund*innenstimmen hervorbringt und der KI immer wieder frische Kontexte liefert. Ein solcher Prozess ist robuster als jede einmalige Kampagne, weil er verlässlich Vertrauen aufbaut und saisonale Schwankungen abfedert. Teams profitieren, wenn sie Zielkorridore definieren, etwa eine bestimmte Zahl neuer Rezensionen pro Woche und wenn sie Fortschritte sichtbar machen. So wird aus gutem Vorsatz ein gelebter Ablauf, der die gesamte Organisation stärkt.

Sprache der Kund*innen wirkt wie natürliches SEO

KI versteht Alltagssprache deutlich besser als Listen isolierter Schlagwörter. Unternehmen gewinnen, wenn sie um freie, aber konkrete Formulierungen bitten, ohne Vorgabetexte und ohne Druck. Eine höfliche Bitte wie: „Wenn es für Sie passt, nennen Sie gern, was Ihnen besonders geholfen hat“ öffnet den Raum für präzise Hinweise auf Leistungen, Erreichbarkeit, Barrierefreiheit oder Schnelligkeit. Solche natürlich entstandenen Details sind für Menschen überzeugend und zugleich für Maschinen gut interpretierbar. Sie zeigen, wofür ein Betrieb tatsächlich steht, und verankern die passenden Begriffe in einem echten Nutzungskontext. Das Ergebnis ist eine Sprache, die Vertrauen schafft und die Auffindbarkeit stärkt, ohne künstlich zu wirken.

Antworten trainieren Vertrauen für Menschen und Maschinen

Jede Reaktion auf eine Bewertung ist ein sichtbares Zeichen von Serviceorientierung und zugleich zusätzlicher Kontext für die KI. Gute Antworten bedanken sich aufrichtig, beziehen sich konkret auf das Erlebte und bieten einen klaren nächsten Schritt an. Bei Kritik zählt ein professioneller Umgang. Das Anliegen nachvollziehen, Verantwortung übernehmen, eine realistische Lösung anbieten und einen direkten Kontaktweg nennen. So entsteht ein Bild von Verlässlichkeit, das Hemmschwellen senkt und Wiederbesuche wahrscheinlicher macht. Die KI erkennt diesen Umgang ebenso und ordnet das Unternehmen eher als vertrauenswürdig ein. Mit der Zeit entsteht ein stabiler Kreislauf aus guter Erfahrung, konstruktiver Reaktion und wachsendem Vertrauen.

Lokaler Content und Social Proof gehören zusammen

Bewertungen entfalten ihre volle Wirkung, wenn sie auf eine solide Informationsbasis treffen. Konsistente Unternehmensdaten, vollständige Leistungsseiten pro Standort, klare Öffnungszeiten inklusive Ausnahmen und eine schnelle, mobil optimierte Webseite erleichtern die Einordnung für Nutzer*innen und Maschine. Wenn ausgewählte Zitate oder Bewertungsschnipsel an relevanten Stellen sichtbar werden, etwa auf der Startseite, in der Buchungsstrecke oder in den häufigen Fragen, entsteht ein schlüssiges Gesamtbild. Der lokale Bezug bleibt klar erkennbar, die Erwartungen sind gut gesetzt, und die nächsten Schritte sind ohne Umwege möglich. So wird aus Social Proof ein handfester Conversion Hebel.

Vom Feedback zur Verbesserungsschleife

Rezensionen sind fortlaufende Marktforschung aus erster Hand. Wer wiederkehrende Themen auswertet, etwa Wartezeiten, Erreichbarkeit oder Bezahloptionen, erkennt schnell die Stellschrauben mit der größten Wirkung. Wichtig ist, die daraus abgeleiteten Verbesserungen konsequent umzusetzen und sichtbar zu machen. Informieren, handeln, erneut um Rückmeldung bitten. Dieser offene Kreislauf wirkt nach innen und nach außen. Mitarbeitende erleben, dass Feedback Veränderungen anstößt, Kund*innen erleben, dass ihre Hinweise ernst genommen werden, und die KI registriert die fortlaufende Pflege der Qualität. Mit jeder Runde werden Erlebnisse besser und Bewertungen stärker, was die Sichtbarkeit weiter erhöht.

Fazit

Sichtbarkeit entsteht heute dort, wo Menschen nach konkreten Lösungen fragen und wo KIs verlässliche Hinweise zu Qualität und Relevanz finden. Unternehmen, die Bewertungen als strategischen, kontinuierlichen Prozess verstehen, erhöhen ihre Chance, in generativen Antworten genannt zu werden und gewinnen genau in den entscheidenden Momenten an Präsenz. Vieles davon ist eine Frage kluger Organisation und klarer Abläufe. Der finanzielle Aufwand bleibt überschaubar, der Nutzen für Auffindbarkeit, Vertrauen und Umsatz ist deutlich spürbar.

Die Autorin Franziska Ortner ist Produktmanagerin bei SELLWERK

NICAMA Naturkosmetik: Von der Studienidee zum nachhaltigen Erfolgsunternehmen

NICAMA Naturkosmetik feiert sein fünfjähriges Bestehen: Was mit kleinen Experimenten während des Studiums begann, ist heute ein etabliertes Naturkosmetikunternehmen mit über 600 Handelspartnern im DACH-Raum.

Was 2019 als mutige Idee von vier Studierenden begann, wurde rasch zu einem inspirierenden Beispiel für gelebte Nachhaltigkeit. In einer Zeit, in der Umweltschutz noch kein selbstverständlicher Trend war, experimentierten die Gründerinnen und Gründer mit festen Shampoos, um eine plastikfreie Alternative zu herkömmlicher Kosmetik zu schaffen. Das erste Produkt entstand mit viel Leidenschaft, Neugier und Improvisation. Damit war der Grundstein für den späteren Unternehmenserfolg gelegt.

Ein erfolgreiches Crowdfunding finanzierte 2019 die erste Produktcharge und machte den Traum vom eigenen Webshop möglich. Es folgten die ersten Partnerschaften mit Bioläden, Outdoorhändlern, Friseuren und Geschenkeläden, die an die Vision glaubten. Heute zählt NICAMA stolz über 600 Vertriebspartner und wächst weiter.

Ein entscheidender Meilenstein war die Entwicklung des 1plus1 Meeresschutz-Prinzips: Für jedes verkaufte Produkt werden 100 Gramm Plastik in Küstenregionen gesammelt. Dieses Prinzip ist transparent, messbar und von jedem/jeder Kund*in nachvollziehbar. Bis heute konnten so über 33.290 Kilogramm Plastik aus der Umwelt entfernt werden. Das entspricht mehr als 3,2 Millionen Plastikflaschen. Darüber hinaus hat das Team mehrere Elbreinigungen organisiert, unter anderem gemeinsam mit der Naturschutzjugend NAJU und Charlotte Meentzen.

Mit dem Schritt in die Upcycling Beauty wurde NICAMA zum Pionier in Deutschland. Dabei werden wertvolle Nebenprodukte aus der Lebensmittelproduktion wie Ingwertrester und Kaffeekirsche zu hochwertigen Inhaltsstoffen verarbeitet. Heute umfasst das Sortiment über 50 plastikfreie Produkte, darunter Seifen, Shampoos, Deocremes, Pflegeöle und Körperpeelings – alle minimalistisch verpackt und mit reduzierten, sorgfältig ausgewählten Rezepturen.

Die Reise war jedoch nicht ohne Herausforderungen: Die Corona Pandemie und die Inflationsfolgen des Ukraine-Krieges setzten auch NICAMA stark zu. Das einst 15-köpfige Team musste sich zwischenzeitlich deutlich verkleinern. Trotz dieser Rückschläge bewies das Unternehmen Durchhaltevermögen. Heute steht es so solide da wie nie zuvor. Seit zwei Jahren verzeichnet NICAMA wieder überdurchschnittliches Wachstum und das deutlich über dem allgemeinen Naturkosmetikmarkt in Deutschland.

Für sein Engagement und seine Innovationskraft wurde das Unternehmen mehrfach ausgezeichnet: 2021 gewann NICAMA den Sächsischen Gründerpreis und erhielt bereits viermal den eku Zukunftspreis des Sächsischen Staatsministeriums für Umwelt und Landwirtschaft.

Die Top 10 Grafikdesigntrends 2026

Grafikdesign setzt Impulse, um dein Branding aufzufrischen, deine Marke gekonnt zu inszenieren oder deine Zielgruppe persönlich und emotional anzusprechen. Daher gut zu wissen: Diese zehn Grafikdesigntrends werden von den Profis aktuell favorisiert.

2026 wird das Jahr, in dem Grafikdesign Menschlichkeit betont. Während KI im Alltag eine immer größere Rolle spielt, wächst die Sehnsucht nach Echtheit – nach Entwürfen, die berühren. Zu diesem Schluss kommt das Expert*innen-Team von VistaPrint auf Basis der umfassenden Beobachtungen seiner internationalen Freelancer-Community auf 99designs by Vista.

Die zentrale Erkenntnis: Grafikdesign wird wieder deutlich persönlicher. Es zeichnet sich ab, dass sich die Trends weg vom Glatten, hin zum Echten entwickeln. Marken wollen bei ihren Zielgruppen Gefühle wecken und setzen deshalb auf Geschichten statt Marketingbotschaften. So wird Design zur Bühne für Individualität und damit zum wirksamsten Werkzeug, um echte Verbindungen aufzubauen.

„Kleine Unternehmen haben den entscheidenden Vorteil, mutig, eigenwillig und authentisch auftreten zu können – großen Marken fällt das oft schwer,“ weiß Patrick Llewellyn, VP of Digital and Design Services bei VistaPrint. „In unserer laut und unpersönlich gewordenen Welt wirken unperfekte Designs ehrlich. Genau das macht sie so kraftvoll.“

Die Designtrends 2026 holen das Handgemachte ins Digitale, erzählen von kultureller Identität, feiern Unvollkommenheit und lassen Gefühle sichtbar werden. Nicht der Algorithmus, sondern der Mensch steht im Mittelpunkt.

Die Designtrends 2026 im Überblick:

Elemental Folk

Tradition trifft moderne Gestaltung: Inspiriert von regionaler Handwerkskunst und kulturellem Erbe, entstehen warme, ausdrucksstarke Designs mit floralen Mustern, ornamentalen Details und kräftigen Farben. Die Gestaltung wirkt vertraut und zeitgemäß zugleich. Elemental Folk ist ein visueller Rückgriff auf das Ursprüngliche, der die Identität und Herkunft feiert.

Hyper-Individualism

Dieser Trend bringt frischen Wind ins Design. Er setzt auf surreale Bildwelten, spielt mit verzerrten Formen und bricht ganz bewusst mit Konventionen. Die Darstellungen wirken mal verspielt, mal provokant, aber immer individuell. Während viele ihre Gestaltungsprozesse komplett von der künstlichen Intelligenz erledigen lassen, begeistert dieser Stil mit der kreativen Handschrift der Menschen.

Tactile Craft

Stickerei, Stoffstrukturen und handgemachte Details finden ihren Weg zurück ins digitale Design. Was dabei entsteht, fühlt sich fast schon greifbar an: Die visuellen Oberflächen erzeugen eine besondere Tiefe, die den BetrachterInnen Wärme spendet. Zwischen DIY-Charme und nostalgischer Anmutung generiert dieser Trend – als Gegenentwurf zur glatten, oft distanzierten Ästhetik der digitalen Welt – eine emotionale Nähe.

Distorted Cut

Wenn Gestaltung zum Widerstand wird, entstehen visuelle Statements mit Ecken und Kanten. Klassische Collage-Techniken werden neu interpretiert, indem Bilder zerschnitten, Schichten überlagert und Formen fragmentiert werden. Das Ergebnis wirkt roh, rebellisch und voller Energie. Fest steht: Dieser Designstil will nicht gefallen – es geht darum, Haltung zu zeigen.

Candid Camera Roll

Kreative bringen mit diesem Trend das Echte zurück ins Visuelle. Unperfekte Schnappschüsse, Filmkorn, Blitzlicht und spontane Momente wirken persönlich und nahbar. Im Zusammenspiel mit reduzierter Typografie entstehen Designs, die mit ihrer Ehrlichkeit wirken und berühren.

Hyper-Bloom

Manchmal braucht es einen visuellen Rückzugsort – einen Ort zum Durchatmen. Sanfte Verläufe, zarte Blumenmotive und pudrige Pastelltöne entführen in eine Welt zwischen Traum und Realität. Der Stil wirkt wie ein Gegenpol zum hektischen Alltag und öffnet Raum für Leichtigkeit, Optimismus und ein bisschen Tagträumerei.

Digit-Cute

Die Ästhetik bewegt sich zwischen Nostalgie und digitaler Verspieltheit und sorgt vom ersten Moment an für richtig gute Laune. Klare Strukturen treffen auf bunte Pixelgrafiken, niedliche Figuren und kräftige Farben. Der Look versprüht den Charme der frühen Computerspiele und Popkultur. Gerade weil er so verspielt wirkt, ist er gestalterisch besonders raffiniert.

Micro-Industrial

Was früher rein funktional war, wird jetzt zum Gestaltungskonzept. Inspiriert von Verpackungen, technischen Etiketten und Informationsgrafiken bildet sich ein Designstil, der Klarheit feiert. Der gezielte Einsatz von Elementen wie Barcodes, QR-Codes und Rasterstrukturen verleiht den Entwürfen eine rohe, sachliche und zugleich moderne Ästhetik.

Neon Noir

Dunkel, intensiv und voller Spannung – der Stil erinnert an Szenen aus einem Neo-Noir-Film. Knallige Farben, wie elektrisches Rot, treffen auf tiefes Schwarz, kombiniert mit Bewegungsunschärfen und rauen Texturen. Der urbane, energiegeladene Look fällt sofort ins Auge und bleibt lange im Kopf.

Frutiger Aero Revival

Ein Hauch von Zukunft, so wie man sie sich früher vorgestellt hat: Glänzende Oberflächen, sanfte Farbverläufe und fließende Formen knüpfen an die Tech-Ästhetik der frühen 2000er an. Elemente wie Wasser, Himmel oder digitale Pflanzenwelten verleihen den Designs eine fast träumerische Leichtigkeit. Der Stil ist eine liebevolle Rückschau in eine Zeit, in der Technologie noch als Versprechen galt.

Fazit

Design darf wieder fühlen, Haltung zeigen und Ecken haben. Um als Marke aufzufallen, braucht man nicht mehr das glatteste Logo oder das perfekteste Bild, sondern Persönlichkeit, Mut und eine klare Botschaft. 2026 wird das Jahr, in dem Echtheit zählt. Das Beste daran: Es wird kreativ, lebendig und überraschend schön.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche

Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.

Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.

KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.

Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.

Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.

Kontrolle und Zugang: Die Regeln für Sprachmodelle

Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.

Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.

Neue Protokolle für neue Crawler

Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.

Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.

Strukturierte Daten als universelle KI-Sprache

Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.

Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.

Die Bedeutung für die Generierung

Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.

  • Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
  • Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.

Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.

Ladezeit und Interaktivität als Vertrauenssignal

Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.

Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:

  • LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
  • FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
  • CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.

Mobile Performance ist der Schlüssel

Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.

Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.

Redundanz vermeiden: kanonische Klarheit

Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.

Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.

Schlussworte

Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.

Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:

1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.

2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.

3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.

4. Die Vermeidung von Duplikaten durch kanonische Klarheit.

Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.

eleQtron: It's MAGIC

In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.

Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“

Es war ein ungewöhnlicher Ort für eine bahnbrechende

Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.

Von der Universität ...

Im Jahr 2020, als das globale Interesse an Quantentechnolo­gien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.

Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quanten­programme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.

In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.

... zum technologischen Durchbruch

Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer so­genannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikro­wellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“

Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.

Wachstumsschub und strategische Entwicklung

2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.

„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.

EU KI-Gesetz wird scharf gestellt

Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.

Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.

Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:

  • Strafmaßnahmen bei Nichteinhaltung
  • Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
  • Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene

Strafen bis zu 35 Millionen Euro

Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.

Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen

GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.

GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.

Aufsicht und Governance

Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.

Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.

Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.

Was bedeutet das für Personalabteilungen und Arbeitnehmende?

Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.

  • Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
  • Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
  • Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
  • Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.

Fazit

Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.

Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.

Start-ups gegen Plastikmüll

Während die Verhandlungen zu einem globalen Plastikabkommen ergebnislos bleiben, entwickeln Start-ups weltweit innovative Technologien gegen Plastikmüll. Wir stellen eine Auswahl davon vor.

Die jüngsten Verhandlungen in Genf über ein globales Plastikabkommen sind wieder ohne Ergebnis geblieben. Die mehr als 180 verhandelnden Nationen konnten sich nicht einigen. Seit mehr als 50 Jahren sind die Gefahren durch Plastikmüll bekannt – und doch wird immer mehr davon produziert. Jedes Jahr entstehen rund 460 Millionen Tonnen Plastik, weniger als 10 Prozent davon werden recycelt und über 30 Millionen Tonnen gelangen in die Ozeane.

Auf politischer Ebene zeichnet sich bislang keine Lösung ab, auf die man sich global einigen könnte. Neue Vorgaben wie die Pflicht zu fixierten Flaschendeckeln in der EU sorgen eher für Frust. „Seit Jahrzehnten reden wir über das Plastikproblem. Um es zu lösen braucht es technologische Ansätze“, sagt Dr. Carsten Gerhardt, Vorsitzender der gemeinnützigen Circular Valley Stiftung. Solche Ansätze liegen längst auf dem Tisch. „Start-ups aus aller Welt zeigen, dass Innovation schneller sein kann als Verhandlungen.“

Start-ups aus aller Welt arbeiten an Lösungen

Einige dieser Unternehmen hat der Circular Economy Accelerator der Circular Valley Stiftung bereits unterstützt. Das Start-up PROSERVATION etwa stellt Polsterverpackungen aus Nebenprodukten der Getreideindustrie her, BIOWEG ersetzt Mikroplastik durch Biomaterialien aus Lebensmittelabfällen und das Unternehmen Biomyc verwendet Myzel-Verbundwerkstoffe aus Pilzwurzeln und Pflanzen.

Daüber hinaus stellt NYUNGU AFRIKA Damenhygieneprodukte aus Ananasblatt- und Maisschalenfasern her, Midwest Composites nutzt Ernteabfälle für die Herstellung von Textilien und Vlastic bietet eine Alternative zu geschäumten Kunststoffen auf Flachsbasis.

Wenn Produkte das Ende ihrer Lebensdauer erreichen, können sie durch Recycling ein zweites erhalten. Ecoplastile verwandelt Abfälle in langlebige Dachziegel, Gescol macht Bauplatten aus Schuhsohlen und Novoloop nutzt schwer zu recycelndes Polyethylen zur Produktion von thermoplastischen Hochleistungs-Polyurethanen.

Chemisches Recycling zerlegt Kunststoffe in molekulare Bausteine. Das Unternehmen CARBOLIQ verwendet ein katalytisches Niedertemperaturverfahren, um gemischte Kunststoffe in Öl umzuwandeln, das fossile Rohstoffe ersetzen kann; Radical Dot extrahiert Monomere, um sie erneut verwenden zu können.

Zu chemischem Recycling hat Circular Valley in diesem Jahr einen Informationsfilm veröffentlicht, der die Möglichkeiten dieser Methode erklärt und verdeutlicht.

Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen

Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.

Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.

Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede

Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.

Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.

Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?

Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.

Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.

Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?

Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.

Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.

Expertise als wichtiger Faktor für den Kauf einer Luxusuhr

So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.

Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.

Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.

Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.

Ein Ausblick auf die (mögliche) langfristige Wertentwicklung

Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.

Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.

Food-Innovation-Report

Wie Food-Start-up-Gründer*innen im herausfordernden Lebensmittelmarkt erfolgreich durchstarten und worauf Investor*innen besonders achten.

Food-Start-ups haben in den vergangenen Jahren einen bemerkenswerten Aufschwung erlebt. Der zunehmende Wunsch nach nachhaltiger, gesunder und funktionaler Ernährung, das wachsende Bewusstsein für Klima- und Umweltschutz sowie der Trend zur Individualisierung der Ernährung haben eine neue Gründungswelle ausgelöst. Dennoch: Der Markteintritt im deutschen Lebensmittelmarkt zählt zu den anspruchsvollsten Herausforderungen, denen sich Gründer*innen stellen können. Wer als Start-up nicht durch außergewöhnliche Innovation oder gezielte Nischenstrategie punktet, hat kaum eine Chance, hier gelistet zu werden.

Ohne klare Zielgruppenfokussierung, glaubwürdiges Produktversprechen und professionelle Umsetzung funktionieren auch gute Ideen nicht – wie es u.a. die Frosta-Tochter elbdeli (trotz starker Marke keine Resonanz) und Bonaverde (Kaffeemaschine mit Röstfunktion, die trotz Kickstarter-Erfolg) scheiterte zeigen.

Da dieser Markt so groß ist, ist er auch stark reguliert, hochkonkurrenzfähig und von mächtigen Einzelhandelsstruk­turen dominiert. Zu den größten Hürden zählen die komplexe Regulatorik, Logistik und Produktion, Finanzierung sowie die Konsument*innenakzeptanz.

Laut dem Deutschen Startup Monitor nennen 43 Prozent aller Start-ups die Finanzierung als größte Hürde. Kapitalbedarf entsteht früh – für Verpackungen, Lebensmittelsicherheit, Produktion, Mindestabnahmemengen und Vertrieb.

Ein typisches Seed-Investment liegt zwischen 250.000 und 1,5 Millionen Euro. In späteren Phasen steigen institutionelle VCs mit Ticketgrößen von bis zu fünf Millionen Euro ein. Erfolgreiche Exits wie der Verkauf von yfood an Nestlé (2023) zeigen: Der Markt ist in Bewegung, aber selektiv.

Functional Food als Innovationsmotor – aber nicht der einzige

Functional Food ist längst mehr als ein Trend: Es ist ein wachsendes Segment mit wissenschaftlicher Fundierung. Produkte wie funktionale Riegel, Drinks oder Functional Coffee verbinden Geschmack mit gesundheitlichem Mehrwert. Besonders gefragt sind derzeit Inhaltsstoffe wie Adaptogene, Pro- und Präbiotika, pflanzliche Proteine und weitere Mikronährstoffe.

Zugleich gewinnen auch alternative Proteinquellen (Pilze, Algen, Fermentation), klimapositive Lebensmittel und Zero-­Waste-Konzepte an Bedeutung. Konsument*innen wollen Ernährung, die nachhaltig und leistungsfördernd ist.

Worauf Investor*innen achten – und was sie abschreckt

Aus Sicht eines/einer Investor*in zählen nicht nur Produkt­idee und Branding. Entscheidender ist:

  • Ist das Team umsetzungsstark, resilient, multidisziplinär?
  • Gibt es Traktion (z.B. Verkaufszahlen, Feedback, D2C-Erfolge)?
  • Wie realistisch ist der Finanzplan? Sind Margen und Logistik durchdacht?
  • Ist das Produkt skalierbar – auch international?

Abschreckend wirken hingegen: überschätzte Umsatzpro­gnosen, fehlende Markteinblicke, instabile Lieferketten oder reine Marketingblasen ohne echte Substanz.

Es ist unschwer zu erkennen: Wer im Food-Bereich gründen will, braucht mehr als eine gute Idee. Der deutsche Markt ist selektiv, komplex und durch hohe Einstiegshürden geprägt. Gleichzeitig ist er enorm spannend für alle, die bereit sind, langfristig zu denken, regulatorisch sauber zu arbeiten und echten Mehrwert zu schaffen.

Food-Start-ups, die ihre Zielgruppe kennen, finanziell solide aufgestellt sind und wissenschaftlich fundierte Produkte entwickeln, haben reale Chancen auf Marktdurchdringung – besonders, wenn sie es schaffen, Handelspartner*innen und Konsument*innen gleichermaßen zu überzeugen.

Investor*innen sind bereit, in solche Konzepte zu investieren, aber sie erwarten mehr als Visionen: Sie erwarten belastbare, integrierte Geschäftsmodelle mit echtem Impact.

Internationaler Vergleich: Was Food-Start-ups in den USA anders machen

Die USA gelten als Vorreiter für Food-Innovation. Der Markt ist schneller, risikofreudiger und deutlich kapitalintensiver. Allein im Jahr 2023 flossen in den USA rund 30 Milliarden US-Dollar Wagniskapital in FoodTech und AgriFood-Start-ups – ein Vielfaches im Vergleich zu Deutschland. Start-ups wie Beyond Meat, Impossible Foods oder Perfect Day konnten in kurzer Zeit hunderte Millionen Dollar einsammeln, skalieren und international expandieren. Die wesentlichen Unterschiede zur deutschen Szene sind:

  • Zugang zu Kapital: Amerikanische Gründer*innen profitieren von einer ausgeprägten Investor*innenlandschaft mit spezialisierten VCs, Family Offices und Corporate Funds. In Deutschland dominiert oft konservative Zurückhaltung.
  • Marktzugang: Der US-Markt ist dezentraler organisiert. Start-ups können regional Fuß fassen und wachsen, ohne gleich auf landesweite Listungen angewiesen zu sein.
  • Regulatorik: Die U.S. Food and Drug Administration (FDA) ist in vielen Bereichen offener gegenüber neuen Inhaltsstoffen und Health Claims – das ermöglicht schnellere Markteinführungen.
  • Kultur & Narrative: Amerikanische Konsument*innen sind innovationsfreudiger. Sie schätzen Storytelling, Vision und Purpose deutlich mehr als europäische Kund*innen.

Das bedeutet nicht, dass der US-Markt einfacher ist. Er ist aber zugänglicher für disruptive Ideen, insbesondere wenn sie skalierbar und investor*innentauglich aufgesetzt sind.

Operative Herausforderungen: vom Prototyp zur Produktion

Die operative Skalierung ist einer der größten Stolpersteine für Food-Start-ups. Eine Rezeptur im Labormaßstab oder im Handwerk zu entwickeln, ist vergleichsweise einfach. Sie jedoch für den industriellen Maßstab zu adaptieren, bringt komplexe Fragestellungen mit sich:

  • Wo finde ich einen Co-Packer mit Kapazitäten für Kleinserien?
  • Wie skaliert mein Produkt ohne Qualitätsverlust?
  • Wie optimiere ich Haltbarkeit ohne künstliche Zusätze?
  • Welche Verpackung schützt das Produkt, erfüllt die Nachhaltigkeitsansprüche und passt zu den Preisvorgaben des Handels?

In Deutschland ist die Infrastruktur für Food-Start-ups im Vergleich zu den USA oder den Niederlanden unterentwickelt. Während es in den USA Inkubatoren mit angeschlossenen Produktionsstätten (z.B. The Hatchery in Chicago oder Pilotworks in New York) gibt, fehlt es hierzulande oft an bezahl­baren, flexiblen Produktionslösungen.

Gerade nachhaltige Verpackungen stellen viele Gründer*­innen vor Probleme: Biologisch abbaubare Alternativen sind teuer, nicht immer kompatibel mit Logistikprozessen und oft nicht lagerstabil genug. Ein Spagat, der Investitionen und viel Know-how erfordert.

Erfolgsfaktor Vertrieb: Wie Produkte wirklich in den Handel kommen

Viele unterschätzen den Aufwand, der hinter einem erfolgreichen Listungsgespräch steht. Händler*innen erwarten nicht nur ein gutes Produkt – sie wollen einen Business Case:

  • Wie hoch ist die Spanne für den Handel?
  • Wie ist die Wiederkaufsquote?
  • Wie sieht das Launch-Marketing aus?
  • Gibt es POS-Materialien oder begleitende Werbekampagnen?

Ein Listungsgespräch ist kein Pitch – es ist ein Verhandlungstermin auf Basis knallharter Zahlen. Ohne überzeugende Umsatzplanung, Distributionserfahrung und schnelle Liefer­- fähigkeit hat ein Start-up kaum Chancen auf eine langfristige Platzierung im Regal. Viele Gründer*innen lernen das schmerzhaft erst nach dem Launch.

Zukunftstechnologien im Food-Bereich

Die Food-Branche steht am Beginn einer technologischen Revolution. Neue Verfahren wie Präzisionsfermentation, Zellkultivierung, 3D-Food-Printing oder molekulare Funktionalisierung eröffnen völlig neue Produktkategorien. Beispiele sind:

  • Perfect Day (USA) stellt Milchprotein via Mikroorganismen her – völlig ohne Kuh.
  • Formo (Deutschland) produziert Käseproteine durch Fermentation.
  • Revo Foods (Österreich) bringt 3D-gedruckten Fisch auf pflanzlicher Basis in die Gastronomie und Handel.

Diese Technologien sind kapitalintensiv, regulatorisch komplex, aber langfristig zukunftsweisend. Wer heute die Brücke zwischen Wissenschaft, Verbraucher*innenbedürfnis und industrieller Machbarkeit schlägt, wird zu den Innova­tionsführer*innen von morgen zählen.

Neben dem klassischen Lebensmitteleinzelhandel gewinnen alternative Vertriebskanäle zunehmend an Bedeutung. Insbesondere spezialisierte Bio- und Reformhäuser wie Alnatura, Denns oder basic bieten innovativen Start-ups einen niedrigschwelligen Einstieg, da sie auf trendaffine Sortimente, nachhaltige Werte und kleinere Produzent*innen setzen. Hier zählen Authentizität, Zertifizierungen und persönliche Beziehungen mehr als reine Umsatzversprechen.

Auch der Onlinehandel wächst rasant: Der Anteil von E-Commerce im deutschen Lebensmitteleinzelhandel liegt zwar erst bei etwa drei bis vier Prozent, doch Plattformen wie Amazon Fresh, Picnic, Knuspr oder Getir bieten zunehmend Raum für neue Marken. Gerade Quick-Commerce-Anbietende ermöglichen kurzfristige Testmärkte und agile Vertriebspiloten in urbanen Zielgruppen.

Der Blick in die USA zeigt, was in Europa bevorsteht: Dort erzielt TikTok bereits über seinen eigenen TikTok Shop mehr als 20 Milliarden US-Dollar Umsatz – Tendenz stark steigend. Immer mehr Food-Start-ups nutzen die Plattform direkt als Verkaufs- und Marketingkanal. Es ist nur eine Frage der Zeit, bis ähnliche Social-Commerce-Strukturen auch in Europa an Relevanz gewinnen – sei es über TikTok, Instagram oder neue, native D2C-Plattformen.

Weitere Trendfelder, die aktuell in den Fokus rücken, sind unter anderem:

  • Regeneratives Essen: Lebensmittel, die nicht nur neutral, sondern positiv auf Umwelt und Biodiversität wirken. Beispiele: Produkte mit Zutaten aus regenerativer Landwirtschaft oder CO-bindende Algen.
  • Blutzuckerfreundliche Ernährung: Start-ups wie Levels (USA) oder NEOH (Österreich) zeigen, wie personalisierte Ernährung über Glukose-Monitoring neue Märkte erschließen kann.
  • „Food as Medicine“: Produkte, die gezielt auf chronische Beschwerden oder Prävention ausgelegt sind – beispielsweise bei Menstruationsbeschwerden, Wechseljahren oder Verdauungsstörungen.
  • Zero-Waste-Produkte: Verwertung von Nebenströmen (z.B. aus Brauereien oder Obstpressen) zur Herstellung von Lebensmitteln mit Nachhaltigkeitsanspruch.
  • Biohacking-Produkte: hochfunktionale Lebensmittel für kognitive Leistung, Schlaf, Erholung oder hormonelle Balance wie zum Beispiel der Marke Moments – by Biogena.

Die Zukunft von Food liegt in der Synthese aus Wissenschaft, Individualisierung und Nachhaltigkeit. Start-ups, die diese Megatrends frühzeitig besetzen, positionieren sich als Pioniere für eine neue Esskultur. Besonders wichtig in der Investor*innenansprache sind:

  • Fundierte Zahlenkenntnis: Gründer*innen sollten Unit Economics, Break-Even-Szenarien und Roherträge detailliert erklären können. Vage Aussagen über Marktpotenzial reichen nicht – es braucht belastbare Szenarien.
  • Proof of Concept: Idealerweise liegt bereits ein MVP (Minimum Viable Product) mit echter Kund*innenvalidierung vor. Pilotprojekte mit Handelspartner*innen oder Online-­Abverkäufe liefern harte Daten.
  • Storytelling mit Substanz: Purpose ist gut – aber er muss betriebswirtschaftlich verankert sein. Was motiviert das Team? Wo liegt der USP? Wie stark ist der Wettbewerb?
  • Team-Komplementarität: Ein starkes Gründer*innen-Team vereint Produkt- und Marktwissen, betriebswirtschaft­liches Denken und Leadership-Kompetenz.
  • Exit-Szenario: Investor*innen wollen eine Perspektive: Wird es ein strategischer Verkauf, ein Buy- & Build-Modell oder ein langfristiger Wachstums-Case?

Wer Investor*innen mit klarer Struktur, realistischen Annahmen und ehrlicher Kommunikation begegnet, hat bessere Chancen auf Kapital – inbesondere in einem Markt, der aktuell selektiver denn je agiert. Genau hier liegt die Kernkompetenz von Food-Start-up-Helfer*innen wie der Alimentastic Food Innovation GmbH, die nicht nur in innovative Unternehmen investiert, sondern ihnen aktiv dabei hilft, die oben genannte operative Komplexität zu überwinden und den Time to Market signifikant zu verkürzen – von der Produktidee bis hin zur Umsetzung im Handel.

Fazit

Der deutsche Food-Start-up-Markt ist herausfordernd, aber voller Chancen. Wer heute erfolgreich gründen will, braucht nicht nur eine starke Produktidee, sondern ein tiefes Verständnis für Produktion, Vertrieb, Kapitalstruktur und Markenaufbau. Functional Food, nachhaltige Innovationen und technologiegetriebene Konzepte bieten enorme Wachstumsmöglichkeiten – vorausgesetzt, sie werden professionell umgesetzt und skalierbar gedacht.

Der Autor Laurenz Hoffmann ist CEO & Shareholder der Alimentastic Food Innovation GmbH und bringt langjährige Erfahrung aus dem Lebensmitteleinzelhandel mit.

„Österreich hat einen langen Atem – und das zahlt sich im Bereich Applied AI aus“

Als führende Standorte in Sachen Künstliche Intelligenz liegen die USA und Asien auf der Hand, doch auch in Österreich gibt es eine vielfältige AI-Landschaft. Welche Vorteile der Standort für künstliche Intelligenz mit sich bringt und welche Rolle dabei Applied AI spielt, weiß Clemens Wasner, Gründer von AI Austria und CEO der EnliteAI.

Clemens Wasner ist Gründer des österreichischen Verbandes für Künstliche Intelligenz, AI Austria und CEO des Wiener Venture Studios EnliteAI. Der studierte Informatiker arbeitete über ein Jahrzehnt in Asien, bevor er 2017 EnliteAI gründete.

Herr Wasner, Sie kennen die AI-Szene aus erster Hand. Wie gut ist Österreich im internationalen Vergleich aktuell aufgestellt, wenn es um Applied AI geht?

Gemessen an seiner Größe steht Österreich erstaunlich gut da. Unsere AI–Landscape verzeichnet mittlerweile über 450 Unternehmen, die aktiv mit KI arbeiten – nicht nur Start-ups, sondern auch klassische Industrieunternehmen, Dienstleister und der öffentliche Sektor. Gerade im Bereich der industriellen Anwendungen ist Österreich breit aufgestellt: Es gibt zahlreiche Corporates, die eigene Competence Center gegründet, Ausgründungen vorgenommen oder Lizenzmodelle für KI aufgebaut haben. Auch die Zahl der Inkubatoren und Corporate Venture Capitalisten ist beachtlich. Das Thema ist in der Realwirtschaft angekommen – und das nicht erst seit gestern. Bereits 2018 gab es hierzulande einen deutlichen Aufschwung. Im Bereich der Spitzenforschung sind wir ebenfalls stark: Mit drei sogenannten ELLIS-Hubs –  European Laboratory for Learning and Intelligent Systems – gehören wir zur europäischen Spitze, gemessen an der Größe des Landes.

Sie sprechen beim Blick auf Österreich oftmals vom „AI-Standort mit langem Atem“. Was genau meinen Sie damit und was macht aus Ihrer Sicht einen exzellenten Standort für AI-Start-ups aus?

Der „lange Atem“ ist positiv gemeint und beschreibt das, was Österreich im Bereich Forschung & Entwicklung auszeichnet: kontinuierliche Investitionen, strategischer Weitblick und langfristige Förderstrukturen. Die Steiermark war lange OECD-Spitzenreiter bei F&E-Ausgaben, Wien verfügt über eine dichte Forschungslandschaft. Das sind keine kurzfristigen Hypes, sondern über Jahrzehnte gewachsene Strukturen. Österreich verfügt zudem über eine differenzierte Förderarchitektur, die alle TRL-Stufen abdeckt – von der Grundlagenforschung bis zur Markteintrittsunterstützung. Auch Clusterstrukturen spielen eine Rolle: In Life Sciences etwa gibt es in Wien und Graz funktionierende Ökosysteme, in denen zunehmend auch KI eine Rolle spielt. Diese Verankerung ermöglicht Planbarkeit, die gerade in technologieintensiven Bereichen entscheidend ist.

Zu den Schlüsselfaktoren einen erfolgreichen Standorts zählen Infrastruktur, Talent Pool und Anwendungsmöglichkeiten. Wo sehen Sie hier derzeit die größten Hebel – und auch die größten Defizite – in Österreich?

Ein klarer Vorteil liegt in der Verfügbarkeit von Talenten: Wien zieht seit Jahren hochqualifizierte Developer aus dem osteuropäischen Raum an. Der AI-Fachkräftemangel ist hier weniger ausgeprägt als in anderen europäischen Hauptstädten. Hinzu kommt: Österreich bildet mehr AI-Absolventen aus, als die Wirtschaft derzeit absorbieren kann. Das schafft einen Bewerbermarkt, der gerade für Start-ups günstig ist. Auch Standortfaktoren wie Lebensqualität und erschwingliche Mieten machen zum Beispiel die Hauptstadt Wien attraktiv. Als Besonderheit sehe ich zudem den aktiven Zugang der Stadt: Wien versteht sich als First Client für KI-Anwendungen, etwa in der Analyse von Geodaten, IoT oder der Digitalisierung von Baueinreichprozessen. Hier ist wesentlich mehr Offenheit für politische Vergabe zu finden als in anderen Ländern. Weniger stark ist Wien in der Spitzenforschung vertreten, hier liegt Linz mit der JKU vorn. Aber man kann als kleines Land nicht alles abdecken – und sollte dort Schwerpunkte setzen, wo bestehende Stärken ausbaubar sind.

Was war der Gründungsimpuls für EnliteAI und wie ist Ihr Venture Studio heute aufgestellt?

Ich kam 2016 nach zehn Jahren in Asien zurück nach Österreich. In China und Japan war KI allgegenwärtig, ein regelrechter Hype. Zurück in Europa herrschte Funkstille – das war ein Kulturschock. Ich wollte dem Thema hierzulande Schub geben: 2017 gründete ich den Verband AI Austria und kurz darauf EnliteAI. Unsere Erkenntnis aus früheren Projekten zeigte, dass viele Unternehmen gute Ideen, aber keine Ressourcen zur Umsetzung hatten. Daraus entstand das Venture Studio: Wir entwickeln Prototypen gemeinsam mit Unternehmen und gründen darauf spezialisierte Start-ups. Aktuell sind wir 20 Personen und verfolgen zwei Themen – Detekt, das sich auf den Bereich Mobile Mapping spezialisiert hat, und ein weiteres im Stromnetzmanagement. Mit EnliteAI möchten wir künftig weitere Projekte unterstützen und bereiten dafür eine Dual-Entity-Struktur mit einem eigenen Fonds vor. Ziel ist es, das Modell professionell zu skalieren und Investoren direkt in die Spin-outs zu bringen.

Rechenleistung zählen zu den Schlüsselressourcen in der AI. Was braucht es aus Ihrer Sicht, damit europäische Standorte hier nicht dauerhaft in Abhängigkeit geraten?

Realistisch betrachtet: Die Abhängigkeit besteht bereits. Die großen Hyperscaler sind US-dominiert, ebenso Chips, Kommunikationstools, Social Networks. Europa muss in die digitale Souveränität investieren. Erste Schritte wie AI Factories sind wichtig, aber nicht ausreichend. Wir brauchen europäische Cloud-Anbieter, Chipproduktion auf europäischem Boden und eine nachhaltige Energiepolitik. Frankreichs KI-Boom basiert auf Atomstrom – weil er langfristig planbar ist. Diese Planbarkeit fehlt in vielen europäischen Ländern derzeit. Ohne Strom gibt es keine KI. Auch das zeigen Stimmen von Sam Altman, Elon Musk und anderen. Hier ist ein strategischer Paradigmenwechsel notwendig.

Sie sprachen bereits die vielfältige Landschaft von kleinen und mittleren Unternehmen in Österreich an, die offen für KI sind. Wie gut funktioniert das Matching zwischen Start-ups und klassischen Industrieunternehmen?

Österreich macht hier sehr viel richtig. Es gibt ein breites Netz an Förderinstrumenten – von der Österreichischen Forschungsförderungsgesellschaft FFG über die Austria Wirtschaftsservice bis hin zu regionalen Wirtschaftskammern. Zudem bietet Österreich eine Forschungsförderungsprämie an, bei der 14 Prozent der F&E-Ausgaben quasi mit einem Blankoschein gefördert werden können. Zudem organisieren viele Institutionen aktiv Matchmaking-Events, etwa im Rahmen von PreSeed-, AI-Adoption- oder Innovationsprogrammen. Hinzu kommt der Industry-Startup-Marktplatz mit mehreren Tausend registrierten Unternehmen. Auch Pitchings werden gefördert. Das Ziel ist stets, AI nicht nur in der Theorie zu belassen, sondern in die Realwirtschaft zu bringen. Trotzdem: Viele Unternehmen wissen noch immer nichts davon. Hier braucht es also noch mehr Aufklärung.

Welcher KI-Standort – in Österreich und darüber hinaus – hat Sie zuletzt positiv überrascht?

In Österreich ist Linz für mich der Hotspot schlechthin – die Kombination aus Spitzenforschung und erfolgreichem Technologietransfer ist dort besonders gut gelungen. International beeindruckt mich Twente in den Niederlanden: kein großer Name, aber mit klarer Strategie. Sie haben das Spin-out-Modell von Oxford und Cambridge adaptiert und konsequent umgesetzt – mit IP-Offices, Gründungsberatung und Infrastruktur für Start-ups. Ein weiteres Vorbild ist Heilbronn mit den Campus Founders: Sie haben, unterstützt durch die Dieter Schwarz Stiftung, einen Ort für Unternehmertum und Innovationen geschaffen und könnten Vorbild für viele europäische Regionen werden. Viele Stiftungen schaffen Parks oder Schlösser, aber wesentlich gewinnbringender wäre die Förderung von Entrepreneurship wie es in Heilbronn passiert statt Museumsstiftung. Europa braucht diese neue Denkweise.

Clemens Wasner, vielen Dank für das Gespräch.

Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin

Was Unternehmen über KI-Agenten wissen müssen

Künstliche Intelligenz in Form autonomer Agenten gewinnt rasant an Bedeutung. Doch wie arbeiten diese KI-Agenten? Was ist bei der Umsetzung zu beachten? Hier gibt's die Antworten.

Die Idee, dass autonome Systeme eng mit Menschen zusammenarbeiten und sie gezielt unterstützen, ist keine Vision mehr, sondern Realität. Während bisher eine umfassende Problemlösungskompetenz im Hintergrund fehlte, bringen KI-Agenten genau diese Fähigkeit mit und übernehmen zunehmend vielfältige Aufgaben in der Arbeitswelt. Wir erklären, was Unternehmen über KI-Agenten wissen müssen.

Was sind KI-Agenten und auf welcher Technologie basieren sie?

KI-Agenten sind Softwaresysteme, die eigenständig Aufgaben ausführen, aus Erfahrungen lernen und dynamisch mit ihrer Umgebung interagieren. Ihr Ziel ist es, Aufgaben autonom zu lösen, ohne dass ein kontinuierliches menschliches Eingreifen notwendig ist. Im Unterschied zu herkömmlichen Automatisierungslösungen bewältigen KI-Agenten selbst komplexe Anforderungen, indem sie sich an neue Bedingungen anpassen. Auch werden sie im Gegensatz zu universellen LLMs in der Regel fein abgestimmt, um Relevanz und Datenschutz zu gewährleisten. Sinnvoll ist eine kontextbezogene Architektur, die kausale KI, Document AI und multimodale Logik kombiniert und damit optimal auf geschäftliche Anwendungsfälle zugeschnitten ist.

In welchen Bereichen der Arbeitswelt entfalten KI-Agenten ihr Potenzial?

KI-Agenten finden in nahezu allen Unternehmensbereichen Einsatzmöglichkeiten – von der Beantwortung einfacher Anfragen bis hin zur Steuerung komplexer Prozesse. Eingebettet in CRM-Plattformen analysieren sie riesige Datenmengen, die Unternehmen manuell nicht mehr auswerten können. Anstatt die Ergebnisse lediglich zu präsentieren oder Kontakte nach Prioritäten zu sortieren, qualifizieren KI-Agenten auch noch automatisch Leads, schlagen passende Angebote vor und beantworten Kundenanfragen. Oder anders formuliert: Während herkömmliche Tools in der Regel auf statischen Wenn-dann-Regeln basieren, führt die neue Generation hyperpersonalisierte Aktionen nahezu in Echtzeit aus. Diese Entwicklung entlastet Mitarbeiter von Routineaufgaben und gibt ihnen Raum, sich auf strategisch wichtige Aufgaben zu konzentrieren. Unternehmen wiederum können ohne großen Aufwand Tausende von Kunden individuell betreuen.

Werden KI-Agenten den Arbeitsmarkt verändern?

Diese Frage lässt sich nicht pauschal beantworten. Es entstehen durch den verstärkten Einsatz von KI-Lösungen neue Berufsfelder – insbesondere bei der Entwicklung, Integration und Wartung solcher Agentensysteme werden qualifizierte Fachkräfte benötigt. Gleichzeitig stellt sich die Herausforderung, bestehende Mitarbeitende gezielt im Umgang mit diesen Technologien weiterzubilden und deren digitale Kompetenzen auszubauen. Eines muss klar sein: Das Ziel von KI-Agenten ist es nicht, menschliche Arbeitskraft zu ersetzen, sondern deren Fähigkeiten zu erweitern. Mitarbeitende können sich somit stärker auf komplexe Kundeninteraktionen oder die Entwicklung innovativer Kampagnen konzentrieren, während ihnen die KI zur Hand geht.

Worauf müssen Unternehmen bei der Auswahl von KI-Agenten-Lösungen achten?

In erster Linie benötigen sie eine digital ausgereifte Umgebung mit einheitlichen Datenformaten, optimierten Prozessen und regelbasierten Automatisierungen, um den ROI steigern zu können. Anschließend müssen sie sicherstellen, dass ihre KI-Systeme den geltenden Datenschutzbestimmungen entsprechen und sensible Kund*innendaten optimal geschützt sind. Transparenz und Nachvollziehbarkeit der KI-Entscheidungen sind ebenfalls essenziell, um das Vertrauen von Kunden und Mitarbeitenden nicht zu gefährden. Auf technischer Seite ist eine interoperable Lösung notwendig, die sich so nahtlos wie möglich in die bestehende IT-Umgebung integrieren lässt. Zu den weiteren Aspekten zählen die Priorisierung der kontextuellen Abstimmung, da Agenten geschäftsspezifische Arbeitsabläufe und Datenformate verstehen müssen, sowie die Nutzung eines Federated-Model-Ansatzes statt einheitlicher LLM-Frameworks, um Effizienz, Erklärbarkeit und Kosten zu optimieren.

Wie binden Unternehmen ihre Mitarbeitenden am besten ein?

Zunächst einmal ist ein grundlegendes Change Management erforderlich. Die Mitarbeiterinnen und Mitarbeiter müssen verstehen, dass die KI ihnen nicht die Arbeit wegnimmt, sondern sie unterstützen soll. Sinnvoll ist auch ein Low-Code-Ansatz: Maßgeschneiderte KI-Applikationen und automatisierte Workflows steigern die Arbeitseffizienz in Abteilungen um ein Vielfaches – sogar Mini-Anwendungen, die lediglich einfache Aufgaben übernehmen. Jedoch können zentrale IT-Abteilungen, die mit Entwicklungsanfragen aus verschiedenen Abteilungen überhäuft werden, diese kaum bewältigen. Mit einer Low-Code-Application-Plattform (LCAP) können auch Mitarbeiter ohne Programmierkenntnisse einfache KI-Anwendungen selbst erstellen. Möglich machen das einfache Drag-and-Drop-Optionen und vorgebaute Module, die je nach Wunsch kombinierbar sind.

Fazit

KI-Agenten sind als kollaborative Partner zu verstehen, nicht als Ersatz für den Menschen. Künftig werden wir eine Multi-Agent Collaboration sehen. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um selbst die komplexesten Herausforderungen effizient zu lösen.

Der Autor Sridhar Iyengar ist Managing Director von Zoho Europe.

5 Tipps für GPT-Sichtbarkeit im Netz

Warum klassisches SEO allein nicht mehr ausreicht und wie Unternehmen für die KI-Antworten der GPT-Modelle sichtbar werden.

Die Spielregeln der digitalen Sichtbarkeit werden gerade neu geschrieben – und die Unternehmen müssen sich neu aufstellen. Denn während viele Unternehmen ihre Strategien noch immer ausschließlich auf Google-Rankings und SEO-Kriterien ausrichten, verlagert sich die digitale Aufmerksamkeit längst in Richtung KI: Sprachmodelle wie ChatGPT, Claude oder Gemini ersetzen zunehmend die klassische Suche. Sie liefern keine Trefferlisten mehr, sondern direkte, aufbereitete Antworten – oft mit konkreten Empfehlungen und Verlinkungen. Für Marken, Produkte und Unternehmen wird es damit entscheidend, in diesen zusammengefassten Antworten stattzufinden. Das Stichwort hierfür ist technisches SEO für KI-Rankings.

Suchmaschinen waren gestern das führende Element in der Sortierung von Wissen im Netz und vor allem das Google-Ranking war entscheidend für die Sichtbarkeit von Informationen und Seiten. In Zukunft entscheiden dagegen Sprachmodelle darüber, welche Inhalte gesehen, zitiert und empfohlen werden. Und wer in diesen Systemen nicht genannt wird, verliert den direkten Draht zur Zielgruppe.

Diesen Paradigmenwechsel vom Google-Ranking zur Antwortlogik hat die SMAWAX, die auf Strategieberatung spezialisierte Agentur der Smarketer Group, erstmals systematisch im Rahmen eines Whitepapers analysiert (s. Link am Ende des Beitrags). Die Expert*innen erklären dabei detailliert, wie GPT-Modelle Inhalte auswählen – und welche Inhalte von den Systemen überhaupt referenziert werden dürfen. Die zentrale Erkenntnis: Suchmaschinenoptimierung nach alten Regeln greift zu kurz, ist aber weiterhin die Sichtbarkeitsgrundlage. Denn Sprachmodelle wie ChatGPT denken nicht in Keywords und Rankings, sondern in semantischen Relevanzräumen, Entitätenbeziehungen und struktureller Klarheit.

Inhalte müssen modular und semantisch präzise sein – doch das reicht nicht

Es geht nicht mehr um Top-Rankings – es geht darum, die richtige Antwort zu sein. Wir müssen SEO neu denken – als Schnittstelle zwischen Struktur, Relevanz und maschinellem Verstehen. Inhalte müssen dazu maschinenlesbar, modular aufgebaut und semantisch präzise sein. Nur dann haben Unternehmen eine Chance, in den Empfehlungslogiken von Claude, GPT & Co. aufzutauchen.

Besonders überraschend ist dabei aber, dass viele Unternehmen in GPT-Antworten zwar durchaus latent präsent, aber nicht sichtbar sind. Der Grund hierfür sind unscharfe Entitäten, fehlende „About“-Seiten, keine Verankerung in externen Quellen wie Wikidata, Trustpilot oder LinkedIn. Die Folgen wirken sich negativ auf die Marken aus und sorgen für Fehlinformationen: KI-Modelle verwechseln Marken, halluzinieren Funktionen oder verschweigen relevante Angebote. Halluzinationen sind in Wahrheit ein strategischer Hinweis auf Unsichtbarkeit. Wenn GPT ein Produkt falsch beschreibt oder dich mit einem Mitbewerber verwechselt, zeigt das: Deine Inhalte sind zwar irgendwo im Modell – aber nicht stabil genug verankert, um korrekt genannt zu werden.

Fünf konkrete Hebel für bessere GPT-Sichtbarkeit

Diese praxisnahe Handlungsempfehlungen können Unternehmen sofort umsetzen können – unabhängig davon, ob sie im B2B- oder B2C-Bereich aktiv sind.

1. Entitäten definieren: Jede Marke braucht heute eine kanonische „About“-Seite, ergänzt um ein Wikidata-Profil, semantische Markups und gleiche Namensverwendungen auf Plattformen wie LinkedIn oder Handelsregister.

2. Aktualität signalisieren: GPT-Modelle bevorzugen Inhalte mit klaren Update-Daten (z.B. dateModified). Ohne erkennbaren Pflegezustand gelten Inhalte als veraltet – und werden ausgefiltert.

3. Bing wird zum Gateway: Weil GPT seine Websuche auf Bing stützt, ist dessen Indexierung entscheidend. Wer dort nicht sauber auffindbar ist, existiert in GPT-Antworten nicht.

4. Content chunkbar machen: Inhalte sollten nicht mehr aus langen Fließtexten bestehen, sondern in modularen Blöcken mit H2-Strukturen, Listen und Zwischenfazits aufgebaut sein.

5. Externe Signale einbinden: Erwähnungen auf Trustpilot, Reddit oder in der Fachpresse stärken die semantische Autorität – und erhöhen die Chance, von Sprachmodellen zitiert zu werden.

Fazit

Die neue Sichtbarkeit entsteht durch das, was das Modell nicht selbst erzeugen kann – sie entsteht also nicht über Rankings, sondern über Relevanzräume. Wer auf Standard-Content setzt, wird paraphrasiert oder übergangen. Wer dagegen einzigartigen, strukturierten und technisch klaren Content liefert, wird empfohlen.

Zum Weiterlesen: Das Whitepaper steht zum kostenlosen Download bereit unter www.smawax.com/whitepaper-ki-sichtbarkeit