Der 5-Sterne-Gründer

Autor: Hans Luthardt
44 likes

Rolf Schrömgens zeigt, wie man einen Welterfolg bauen kann. Mit Trivago hat er die größte Online-Hotelsuche geschaffen, sein Unternehmen erfolgreich an die Nasdaq gebracht und zu einer milliardenschweren Tech-Company gemacht.

Hotel? Trivago!“ Den Slogan, vorgetragen von dem charmant-nuschelnden TV-Werbemann mit französischem Akzent, kennen rund 90 Prozent aller Deutschen. Und weltweit klicken 1,4 Milliarden Menschen auf trivago.de, wenn sie im Internet nach einem Hotel suchen, statt den Weg über die Google-Suche zu nehmen. Wie aber schafft man es, eine Art von Google für etwas zu werden – also das Synonym für eine Dienstleistung, eine Branche, eine Branchenlösung? Also etwas zu werden, das von sehr vielen wie selbstverständlich genutzt wird, ohne dass man so recht weiß, wer die Köpfe dahinter sind. Es gibt zahlreiche ambitionierte Start-ups, die vollmundig damit werben, das Google für etwas zu sein oder zumindest in Bälde werden zu wollen. Bei den meisten dieser Aussagen handelt es sich schlichtweg um PR-Slogans bzw. um ein Sich-mit-fremden-Federn-Schmücken.

Sich mit fremden Federn zu schmücken war und ist mit Sicherheit nicht das Ding von Rolf Schrömgens, dem 41-jährigen Gründer von Trivago, der weltweit führenden Meta-Suchmaschine für Hotels. Er und seine Mitstreiter Malte Siewert und Peter Vinnemeier haben es in rund 12 Jahren geschafft, ein Tech-Unternehmen aufzubauen, das an der US-Börse notiert ist, das aktuell mit über 4 Milliarden US-Dollar bewertet wird und damit zu einem der hierzulande äußert seltenen sog. Unicorns gehört, das bislang auf eher leisen PR-Pfaden unterwegs ist. Höchste Zeit, dass sich das ändert.

Höchste Zeit also, die Gründer- und Erfolgsstory von Trivago zu erzählen, also den Weg der ersten deutschen Suchmaschine für Hotels hin zur weltweit größten Online-Hotelsuche, die nichts weniger leistet, als die Preise bzw. Preisänderungen für rund 1,3 Millionen Hotels in über 190 Ländern zu ermitteln, zu analysieren und zu speichern. Die Gründerstory aus Düsseldorf zeigt, wie ein Welterfolg entstehen kann, basierend auf dem Gespür für eine Idee und deren Transformation zu einem wirtschaftlich tragfähigen und zukunftsweisenden Geschäftsmodell. Trivago ist zugleich die Story eines der wenigen deutschen Start-ups, das trotz eines millionenschweren Exits – übrigens der drittgrößte in der deutschen Start-up-Geschichte – operativ noch fest in Gründerhand ist und dies wohl auch weiter bleiben wird.

Rolf Schrömgens erzählt offen, konkret und verbindlich, ohne Pathos oder gespielte Bescheidenheit von seinem Weg, der eine Lehrstunde in Company Building und Change Management ist und schlichtweg der Stoff, aus dem große Tech-Erfolge wachsen können.

Der Weg ins digitale Business

Rolf stammt aus Mönchengladbach, wo seine Familie seit Generationen ein Restaurant hat. Er wächst in und mit der Gastronomie auf und stellt dabei rasch fest, dass er nicht in die familiären Fußstapfen treten will. Stattdessen startet Rolf nach dem Abi mit einem klassischem BWL-Studium in Essen, wechselt dann nach dem Vordiplom 1997 an die private HHL Leipzig Graduate School of Management und nimmt einen Kredit auf, um dort seinen Abschluss machen zu können.

An der Leipziger Uni herrscht eine regelrechte Gründerstimmung. Die Hochschule ist neu, „man wusste noch nicht so genau, was der Abschluss dort letztlich wert wäre, es war also schon ein gewisses Risiko, dorthin zu gehen, und so waren auch die Leute dort eingestellt. Es waren sehr unternehmerisch denkende Leute, ganz viele von meinen ehemaligen Kommilitonen sind heute selbst Unternehmer“, berichtet Rolf. „Und letztlich habe ich dort, bereits am ersten Tag, meine Partner kennen gelernt, mit denen ich dann später Trivago gegründet habe.“

Im Sommer 1999 – Rolf befindet sich nach Beendigung eines Auslandssemesters auf dem Rückflug von Chicago nach Frankfurt – liest er einen großen Artikel über die Samwers, die gerade Alando für 50 Mio. US-Dollar an Ebay verkauft hatten, und realisiert bei der Lektüre, dass er offensichtlich in einer ungewöhnlichen Zeit lebt, in der unternehmerisch sehr viel möglich ist. „Und das wollte ich nutzen“, so Rolf rückblickend über diese gedankliche Initialzündung. Statt ein weiteres Praktikum zu machen, arbeitet er an seinem Hochschulabschluss und parallel dazu mit seinen Kommilitonen Stephan Stubner und Peter Vinnemeier an seinem ersten Start-up, dem Verbraucherportal Amiro.de. Um dies zu realisieren, bringt Rolf sich selbst das Programmieren bei.

Das Amiro-Konzept ist so einfach wie erfolgreich: Statt Firmen ihre eigenen Waren und Dienstleistungen aus den Bereichen wie Autos, Handys, Computer, Bücher, Musik, Sport und Spiel anpreisen zu lassen, urteilen die Verbraucher selbst über Qualität und Preis und veröffentlichen ihre Meinung auf der Plattform. Anfang 2000 fusioniert Amiro mit seinem direkten Wettbewerber Ciao.de. Ciao ist damit die größte Online-Meinungs-Community Europas.

Rolf bleibt in dem neuen Unternehmen, bis er Mitte 2001 die Segel streicht und aussteigt. „Letztlich waren nach rund einem Jahr – auch aufgrund der vielen Investoren – nur noch sehr wenige eigene Anteile übrig, wir (also Rolf und seine Amiro-Mitgründer, Anm. d. Red.) waren an einem Punkt angelangt, an dem wir immer weniger Einfluss auf die Unternehmensgeschicke hatten. Wir waren mehr Manager als Unternehmer und haben uns einfach nicht mehr wohl gefühlt in der Situation“, erläutert Rolf seinen Ausstieg.

Wikipedia für Reisende

Der Start von Trivago – der Name ist übrigens ein reines Kunstwort – erfolgt dann in Düsseldorf Anfang 2005. Das Ziel des Gründerteams bestehend aus Rolf Schrömgens, Peter Vinnemeier und Stephan Stubner (Letzterer scheidet 2006 aus der Geschäftsleitung aus und wird von Malte Siewert abgelöst) ist es zunächst, „eine Firma zu gründen, mit der wir uns über Wasser halten können und die uns unsere Miete bezahlt“, erklärt Rolf. Und wichtig ist ihm von Anfang an „bei einem neuen Anlauf alles anders zu machen, nichts künstlich aufzublasen, nicht um jeden Preis möglichst viel Kapital aufzusaugen. Es war unsere Philosophie, mit sehr wenig Kapital zu gründen“. Die Geschäftsidee der Gründer ist es, mit Trivago „eine kommerzialisierte Version von Wikipedia für Reisen zu entwerfen“, erklärt Rolf. „Also ein Wikipedia aufzubauen, neue Artikel schreiben zu lassen und letztlich Werbetreibende aus der Reiseindustrie an den Umsätzen zu beteiligen.“ Das Konzept: Content verbunden mit klassischem Advertising – 2005 eine moderne und lohnende Einnahmequelle.

Das Allesmacher-Dilemma

Geld verdienen die Gründer mit neben den Texten platzierten Anzeigen bzw. Pop-ups, für die nicht selten bis zu 120 Euro TKP (Tausend-Kontakt-Preis) bezahlt werden. Und das Konzept hat, so Rolf, auch eine Zeit lang gut funktioniert. „Wir konnten unsere Miete zahlen und halbwegs davon leben.“ Aber das ändert sich, als die ersten Advertiser anfangen, genauer darauf zu achten, was ihre Werbung einbringt, sprich, was an Buchungen zurückkommt. Da kam es schon mal vor, berichtet Rolf, dass ein Werbetreibender 2000 Euro investiert hatte und nur eine Buchung dafür bekam. Das Problem: „Die Werbung war nicht zielgerecht platzierbar“, erläutert Rolf. Die jungen Unternehmer versuchen dies ihren Werbepartnern klar zu machen. Das heißt, ihnen zu vermitteln, dass sie bspw. im Umfeld eines redaktionellen Beitrags über den Eiffelturm auch Werbung zu Paris platzieren sollten. „Aber das war halt damals nicht möglich, weil die Anbieter die technischen Voraussetzungen dafür nicht leisten konnten bzw. wollten“, so Rolf.

Daher kommen die Gründer zu der Erkenntnis: „Ok, wenn ihr uns das nicht geben könnt, dann machen wir das halt selbst, sprich programmieren selbst.“ Funnel-Optimierung muss her, also die Möglichkeit, dass die Werbung aus dem Netz passgenau zu dem betreffenden Content auf die Seite findet. Gesagt, getan. Doch das nächste Problem wartet bereits. Denn oft kommt es vor, dass bspw. als Werbung zu einem Eiffelturm-Artikel dann fünf Mal die gleichen Hotels von unterschiedlichen Werbeanbietern mit unterschiedlichen Preisen angezeigt werden, was ja nicht unbedingt im Sinne der Werbetreibenden und der Plattformnutzer ist.

Daher machen Rolf und seine Mitstreiter wiederum aus der Not eine Tugend und entwickeln auch dafür eine Lösung: „Das einzige, was wir tun konnten war, eine eigene Datenbank aufzubauen, um darüber die Hotels zu vermatchen, sodass wir dann praktisch nur noch einmal das Hotel anzeigen, und alle Preise darunter packen können.“ Das ist der erste Schritt hin zu dem heutigen Trivago-Geschäftsmodell.

Der zweite Schritt dahin ist eine weitere folgenreiche Erkenntnis: „Anfangs haben wir den Fokus aufs Schreiben gelegt. Dann haben wir festgestellt, dass uns die Leute nicht mehr benutzt haben, um die Artikel zu lesen, sondern letztlich dazu, einen Preisvergleich zu machen. Unsere Kompetenz war es also, die unterschiedlichen Hotelanbieter zusammenzubringen“, so Rolf. Diese Fokussierung bzw. Spezialisierung erfolgt zwar nicht von jetzt auf gleich, die Basis dafür ist aber gelegt. „Wir sind immer gewachsen: an uns, an den Aufgaben. Und wir haben uns immer weiterentwickelt und zwar immer schneller als die Leute außenrum.“

Ein weiterer Pluspunkt ist, dass die Gründer – als Lerneffekt aus der Amiro-Zeit – nur wenig Fremdkapital (rund 1 Mio. Euro) von Investoren wie den Start-up-Größen Florian Heinemann, Lukasz Gadowski oder den Samwer-Brüdern aufnehmen. „Wir hatten schon drauf geachtet, keine institutionellen Investoren zu haben, die auf einen Verkauf ausgerichtet waren, sondern wir wollten andere Gründer haben, die privat investiert haben“, so Rolf. Das ermöglicht den Trivago-Chefs, möglichst beweglich bzw. unabhängig zu bleiben.

Es dauert dann noch rund zwei Jahre, bis die Gründer sich dazu entschließen, ihr Businessmodell klar
zu definieren bzw. es finden. Denn letztlich müssen sie erst noch erkennen, dass der eingeschlagene Weg dauerhaft nicht funktionieren kann. „Wir waren noch von dieser romantischen Idee der Community getragen, die sich selbst administriert und so weiter, und haben das auch noch eine Zeit lang vorangetrieben, bis wir dann in die Situation kamen, dass uns das Geld ausgegangen ist“, erläutert Rolf und ergänzt: „Wir machten zu viele Sachen gleichzeitig. Wir haben nicht nur die Community gemacht, sondern auch Bewertungen der Hotels eingesammelt, wir haben Software für Reisebüros gemacht und Software für große Konsumgüterunternehmen, die ihre Reisen über uns abgewickelt haben, um Umsatz zu machen, und haben uns dabei sehr verzettelt.“

Trivago-Mission-Statement

Diese akute Krisensituation und die damit verbundene Gefahr, Mitarbeiter entlassen zu müssen, setzt bei dem Unternehmer-Trio neue Kräfte frei. „Ich denke, dass Leute immer dann am besten funktionieren, wenn es einen Druck gibt und man einfach nochmal Dinge überdenkt und bereit ist, alte Zöpfe abzuschneiden“, so Rolf. Kurzerhand schotten sich die drei Geschäftsführer von allen Alltagsgeschäften ab, quartieren sich drei Tage lang in einem Düsseldorfer Hotel ein, buchen sich dort einen Meetingraum und gehen in Klausur. Dabei heraus kommt ein Mission Statement, das im Prinzip bis heute nicht mehr verändert worden ist und zu einer Art von Guiding Light geworden ist, auf dessen Grundlage seit 2008 jedes Jahr die Strategien im Unternehmen ausgerichtet bzw. abgeglichen werden.

Im Zuge dieses Mission Statements fällen die drei Geschäftsführer drei fundamentale Entscheidungen. „Die erste war, dass wir nur noch Hotels machen wollen, die zweite, dass wir nur eine Hochtechnologie sein wollen (also kein Content-Unternehmen mehr, sondern eine Tech-Company mit einer Meta-Suchmaschine ausschließlich für Hotels, Anm. d. Red.), und die dritte war, eine Marke aufzubauen“, erläutert Rolf. „Das wollten wir die nächsten Jahre abliefern.“

Die Entscheidung, sich ausschließlich auf Hotels zu spezialisieren, begründet Rolf damit, dass Hotels die eigentliche innere Ressource von Trivago sind und dass der Fokus auf die Hotelsuche dem klaren Kundenwunsch bzw. -nutzen geschuldet ist. Darüber hinaus ist die Hotelsuche, so Rolf, im Gegensatz zu einer Flugsuche emotional, weil es dabei große Unterschiede gibt – sowohl was die Anbieter angeht als auch die Hotels mit ihren Angeboten und Ausstattungen. „Sich selbst in das ideale Hotel zu bringen, ist erst mal eine riesige Aufgabe“, definiert Rolf das eigentlich zu lösende Problem. Und das ist nicht allein eine Frage des Preises. „Der Preisvergleich ist die absolut notwendige Voraussetzung. Ich glaube aber nicht, dass man eine gute Suche bauen kann, wenn man kein unabhängiger Marktteilnehmer ist, der nicht alle Seiten durchsucht“, führt Rolf weiter aus. Daher ist es das Ziel, alle verfügbaren Hotels von allen Anbietern mit allen Preisen listen zu können. Das ist
das technologische Pflichtprogramm. „Letztendlich ist die Kür aber die Frage, wie ich das für mich am besten passende Hotel finde“, ergänzt Rolf.

In Sachen Markenaufbau – dem Punkt drei des Mission Statements –  gibt Rolf das Motto aus: „We want to be the First and the Independent.“ Das strategische Ziel ist es, dauerhaft die erste, direkte und unabhängige Anlaufstelle bzw. der Erstkontakt für Hotelsuchende zu sein, die dann idealerweise nicht mehr über Google kommen, was eine große Abhängigkeit und hohe Kosten bedeutet, sondern Trivago direkt ansteuern. Also schlichtweg besser als andere Suchmaschinen zu sein und damit im Idealfall das Google der Hotelsuche.

Das Geschäftsmodell

Die Marschrichtung ist damit vorgegeben, Rolf und seine Mitstreiter arbeiten ab sofort daran, aus ihrem Gemischtwaren-Unternehmen einen Spezialisten zu formen. Der Erfolg gibt ihnen recht. In den folgenden Jahren bauen sie mit Trivago die erste deutsche Meta-Suche für Hotels auf und verfolgen parallel dazu die konsequente Internationalisierung ihres Angebots bzw. ihrer Plattform. Zunächst expandiert man in Europa, dann folgen Nord- und Südamerika und ab 2013 ist die Webseite schließlich auch auf dem asiatisch-pazifischen Markt vertreten.

Das Geschäftsmodell funktioniert dabei ähnlich wie das von Google. „Es gibt bei uns einen Marktplatz, da bieten die Anbieter um Aufmerksamkeit, und davon hängt es letztlich ab, wie viel Aufmerksamkeit Hotels dann bekommen“, erklärt Rolf. Es handelt sich also um eine Art Auktionsverfahren, über das die Anbieter ihre Wahrscheinlichkeit für Klicks verbessern können. Mit den Klicks, also dem Weiterleiten ihrer Nutzer auf die Seiten der Hotelanbieter, verdient Trivago Geld.

Die Umsätze steigen signifikant, 2012 werden bereits ca. 99 Mio. Euro eingefahren. Um organisch zu wachsen, verzichten die Gründer auf neues Fremdkapital. „Wir hätten deutlich schneller wachsen können. Aber wir hatten letztlich immer unsere Profitabilität zum Maßstab genommen für die Geschwindigkeit, mit der wir wachsen wollen,“ so der Trivago-Chef.

Mega-Exit ohne Ausstieg

Ende 2012 sorgt Trivago erstmals für große Schlagzeilen. Die Gründerszene verbucht einen der bis dato seltenen Mega-Exits eines deutschen Start-ups. Denn die US-Reiseportalgruppe Expedia erwirbt für ca. 477 Mio. Euro rund 62 Prozent der Geschäftsanteile an Trivago. Das Besondere an dem Mega-Deal: Neben Expedia bleiben nur Rolf und seine zwei Co-Gründer an Trivago beteiligt. Das ist auch der Grund, warum Rolf den Begriff Exit nicht so gern hört. „Für die Investoren, die ihre Anteile verkauft haben, war das toll. Wir Gründer haben das nie als Exit gesehen und haben damals mit knapp 40 Prozent des Unternehmens den überwiegenden Teil unserer Anteile behalten“, erklärt er. Und Expedia erhält auch nicht die Option, die Gründer aus dem Unternehmen herauszukaufen.

Als wichtigen Grund für den Deal gibt Rolf an, die zu diesem Zeitpunkt sehr fragmentierte Shareholder-Struktur bereinigen zu wollen. „Also haben wir einen Weg gesucht, selbst nur wenig zu verkaufen, um dafür aber strategisch langfristig einen Weg zu sehen, wieder unabhängiger zu werden.“ Und zu der Entscheidung für den Reise-Giganten äußert er sich wie folgt: „Mit Expedia hatten wir einen so großen Investor gefunden, dass wir mitschwimmen konnten, d.h., nicht immer auf die Quartalszahlen sehen oder reporten mussten und dabei Gefahr laufen, unsere Geschwindigkeit zu verlieren.“

Basierend auf diesem Exit wird Trivagos Wert 2012 auf rund 700 Mio. Euro geschätzt (ein Jahr später bereits auf gut 800 Mio. Euro). Das Unternehmen, zu diesem Zeitpunkt bereits die Nr. 1 der Online-Hotelsuche in Europa, nimmt weiter an Fahrt auf und investiert massiv in Mitarbeiter,  Marketing und Werbung. So steigen seitdem letztlich die Umsätze, Gewinne werden allerdings bislang keine erzielt. 2013 wird ein Jahresumsatz in Höhe von ca. 185 Mio. Euro eingefahren, bis 2016 steigt der Umsatz auf 754,2 Mio. Euro. Die Zahl der Mitarbeiter steigt von unter 300 Personen im Jahr 2012 auf über 500 im Jahr 2015 – heute sind rund 1200 Personen bei Trivago aktiv, 90 Prozent davon in den Düsseldorfer Headquarters.

Der Weg zur Börse

Der nächste unternehmerische Paukenschlag folgt Ende 2016 mit dem Börsengang von Trivago. Es ist der zweitgrößte Börsengang eines Unternehmens aus Deutschland im Jahr 2016 nach Innogy. Zu diesem Zeitpunkt bewerten Analysten Trivago mit mehr als vier Milliarden US-Dollar – damit ist der Wert gut viermal so hoch wie der anvisierte Umsatz von rund einer Milliarde Euro im Jahr 2017.

Am 16. Dezember 2016 eröffnet Rolf an der Nasdaq in New York den Parketthandel. Auf die Frage, ob dies die logische Konsequenz aus dem Expedia-Einstieg gewesen sei, antwortet er: „Es war eine logische Entwicklung, ganz einfach, weil wir größer geworden sind und damit auch größer innerhalb der Expedia-Familie, und dann angefangen haben, die Quartalszahlen public zu machen –unter dem Expedia-Mantel –, und damit im Prinzip so reingewachsen sind, eine öffentlich gelistete Firma zu sein.“ Die Entscheidung für USA und die Nasdaq liegt auf der Hand. „Wir sehen uns als globales Tech-Unternehmen und die USA sind mit Abstand unser stärkster Markt.

Rund 25 Prozent unseres Umsatzes kommen von dort. Wir sind sehr international aufgestellt. Die anderen globalen Tech-Unternehmen in unserem Bereich, unsere Peers, sind alle an der Nasdaq gelistet“, erklärt Rolf. Er, Peter und Malte geben beim Börsengang einen Teil ihrer Unternehmensanteile als Aktien ab. Mit ihrem Geld investieren die Gründer unter anderem über ihre Wagniskapitalfirma Monkfish Equity in junge Start-ups wie Delivery Hero, Hello Fresh oder Moebel24. Die Trivago-Mutter Expedia behält ihre Anteile. Darüber hinaus werden zusätzliche Aktien ausgegeben.

Wohin geht die Trivago-Reise?

Was hat sich seit dem Börsengang verändert? Der tägliche Blick auf den Börsenkurs? „Es hat sich ehrlich gesagt kaum etwas verändert“, so Rolf. „Im täglichen Geschäft hält sich das sehr in Grenzen. Ich schau’ mir auch den Kurs nicht jeden Tag an. Aber ich finde, dass sich Trivago noch mal ein Stückchen besser anfühlt als vorher. Ich glaube, dass man jetzt die Identität noch mehr, noch stärker nach außen leben kann, was vorher nicht so der Fall gewesen war. Das lag vielleicht auch ein bisschen an uns.“

Die Aufmerksamkeit an der Marke Trivago und das frische Kapital kommen sehr gelegen. Denn der globale Online-Hotelmarkt ist umkämpft, langfristig werden nur die ganz Großen überleben. Zumal der Markt noch einiges an Wachstumsmöglichkeiten zu bieten hat. Unter allen Anbietern, die Hotels und mehr online vermitteln, sieht Rolf Google als größte Herausforderung: „Ich glaube, wenn es einen Wettbewerber gibt, dann ist es im Zweifel immer Google, obwohl wir Google in den letzten Jahren extrem viel Marktanteile abgenommen haben.“

Die Nase vorn haben wird derjenige, so Rolf, der im Hotelbereich die beste Suche baut. „Wir glauben, dass langfristig Spezialisten generell einen großen Vorteil haben werden. Das heißt, es wird nicht mehr darum gehen, Webseiten zu scrollen und so viele Informationen wie möglich zu durchsuchen und diese zu ranken, sondern in der Zukunft wird es mehr in Richtung eines persönlichen virtuellen Assistenten gehen, an den die Erwartungen in Sachen Suche weitaus höher sein werden.“ Und er konkretisiert: „Es geht uns also einerseits darum, herauszufinden, was der Suchende will und zum anderen herauszufinden, was ein Hotel so besonders macht, um diese Profile miteinander zu matchen.“ Kurzum: Jeder soll im Idealfall nur noch das auf seine aktuellen individuellen Bedürfnisse perfekt passende Hotel angezeigt bekommen. „Das ist eine riesige Aufgabe, an der wir arbeiten“, betont Rolf.

Und weil Trivago geschätzte 85 Prozent seines Umsatzes in weltweite TV- und Internet-Werbekampagnen steckt, um seine Markenbekanntheit weiter zu steigern, ist es unabdingbar, „die Profitabilität weiter nach oben zu bewegen, wir haben noch viel Potenzial.“ Denn obwohl Trivago betont, dass sein Schlüsselindikator, der Return on Advertising Spending, positiv sei, sprich, dass ein Werbe-Euro 2016 bereits 1,20 Euro Umsatz einbringe, muss noch viel Geld in Mitarbeiter, IT-Entwicklung und nicht zuletzt in den für 2018 geplanten Umzug des Unternehmens in den Düsseldorfer Medienhafen investiert werden. Dort entsteht für gut 200 Mio. Euro ein sechsgeschossiger campusartiger Bau im Silicon-Valley-Style mit Platz für mindestens 2000 Mitarbeiter. „Unser Ziel ist es, die besten Talente aus aller Welt anzuziehen. Mit 63 Nationalitäten, die sich ein Büro teilen, ist es sehr wichtig, dafür zu sorgen, dass sich alle wohlfühlen“, so ein Unternehmenssprecher.

Das Wohlfühlen ist natürlich kein Selbstzweck, sondern dient dem Ziel, zu motivieren und das gegenseitige Vertrauen in die Company zu festigen. „Wenn man sich vertraut, gibt man Fehler zu, probiert mehr aus als man es sich sonst ggf. trauen würde, teilt Informationen schneller und schafft damit eine Basis, auf der wir alle viel schneller lernen können“, so Rolf. „Was uns auszeichnet ist: Wir sind nicht immer gut, aber wir sind einfach besser darin, schneller besser zu werden.“ Und abschließend gibt der Trivago-Chef heutigen Gründern mit auf den Weg: „Bei uns hat es sich ausgezahlt, immer stärker nach innen als nach außen zu schauen, immer stärker auf den Kunden als auf die Konkurrenz zu schauen, nicht zu glauben, dass die anderen die Lösung schon gefunden haben, sondern selber zu denken.“

P.S.: Dieser Beitrag stammt aus dem Jahr 2017

Seit 2019 ist Rolf Schrömgens Founding Investor GRID GmbH und seit 2020 Co-Founder leadership.sprouts.

Diese Artikel könnten Sie auch interessieren:

Die Top 10 Grafikdesigntrends 2026

Grafikdesign setzt Impulse, um dein Branding aufzufrischen, deine Marke gekonnt zu inszenieren oder deine Zielgruppe persönlich und emotional anzusprechen. Daher gut zu wissen: Diese zehn Grafikdesigntrends werden von den Profis aktuell favorisiert.

2026 wird das Jahr, in dem Grafikdesign Menschlichkeit betont. Während KI im Alltag eine immer größere Rolle spielt, wächst die Sehnsucht nach Echtheit – nach Entwürfen, die berühren. Zu diesem Schluss kommt das Expert*innen-Team von VistaPrint auf Basis der umfassenden Beobachtungen seiner internationalen Freelancer-Community auf 99designs by Vista.

Die zentrale Erkenntnis: Grafikdesign wird wieder deutlich persönlicher. Es zeichnet sich ab, dass sich die Trends weg vom Glatten, hin zum Echten entwickeln. Marken wollen bei ihren Zielgruppen Gefühle wecken und setzen deshalb auf Geschichten statt Marketingbotschaften. So wird Design zur Bühne für Individualität und damit zum wirksamsten Werkzeug, um echte Verbindungen aufzubauen.

„Kleine Unternehmen haben den entscheidenden Vorteil, mutig, eigenwillig und authentisch auftreten zu können – großen Marken fällt das oft schwer,“ weiß Patrick Llewellyn, VP of Digital and Design Services bei VistaPrint. „In unserer laut und unpersönlich gewordenen Welt wirken unperfekte Designs ehrlich. Genau das macht sie so kraftvoll.“

Die Designtrends 2026 holen das Handgemachte ins Digitale, erzählen von kultureller Identität, feiern Unvollkommenheit und lassen Gefühle sichtbar werden. Nicht der Algorithmus, sondern der Mensch steht im Mittelpunkt.

Die Designtrends 2026 im Überblick:

Elemental Folk

Tradition trifft moderne Gestaltung: Inspiriert von regionaler Handwerkskunst und kulturellem Erbe, entstehen warme, ausdrucksstarke Designs mit floralen Mustern, ornamentalen Details und kräftigen Farben. Die Gestaltung wirkt vertraut und zeitgemäß zugleich. Elemental Folk ist ein visueller Rückgriff auf das Ursprüngliche, der die Identität und Herkunft feiert.

Hyper-Individualism

Dieser Trend bringt frischen Wind ins Design. Er setzt auf surreale Bildwelten, spielt mit verzerrten Formen und bricht ganz bewusst mit Konventionen. Die Darstellungen wirken mal verspielt, mal provokant, aber immer individuell. Während viele ihre Gestaltungsprozesse komplett von der künstlichen Intelligenz erledigen lassen, begeistert dieser Stil mit der kreativen Handschrift der Menschen.

Tactile Craft

Stickerei, Stoffstrukturen und handgemachte Details finden ihren Weg zurück ins digitale Design. Was dabei entsteht, fühlt sich fast schon greifbar an: Die visuellen Oberflächen erzeugen eine besondere Tiefe, die den BetrachterInnen Wärme spendet. Zwischen DIY-Charme und nostalgischer Anmutung generiert dieser Trend – als Gegenentwurf zur glatten, oft distanzierten Ästhetik der digitalen Welt – eine emotionale Nähe.

Distorted Cut

Wenn Gestaltung zum Widerstand wird, entstehen visuelle Statements mit Ecken und Kanten. Klassische Collage-Techniken werden neu interpretiert, indem Bilder zerschnitten, Schichten überlagert und Formen fragmentiert werden. Das Ergebnis wirkt roh, rebellisch und voller Energie. Fest steht: Dieser Designstil will nicht gefallen – es geht darum, Haltung zu zeigen.

Candid Camera Roll

Kreative bringen mit diesem Trend das Echte zurück ins Visuelle. Unperfekte Schnappschüsse, Filmkorn, Blitzlicht und spontane Momente wirken persönlich und nahbar. Im Zusammenspiel mit reduzierter Typografie entstehen Designs, die mit ihrer Ehrlichkeit wirken und berühren.

Hyper-Bloom

Manchmal braucht es einen visuellen Rückzugsort – einen Ort zum Durchatmen. Sanfte Verläufe, zarte Blumenmotive und pudrige Pastelltöne entführen in eine Welt zwischen Traum und Realität. Der Stil wirkt wie ein Gegenpol zum hektischen Alltag und öffnet Raum für Leichtigkeit, Optimismus und ein bisschen Tagträumerei.

Digit-Cute

Die Ästhetik bewegt sich zwischen Nostalgie und digitaler Verspieltheit und sorgt vom ersten Moment an für richtig gute Laune. Klare Strukturen treffen auf bunte Pixelgrafiken, niedliche Figuren und kräftige Farben. Der Look versprüht den Charme der frühen Computerspiele und Popkultur. Gerade weil er so verspielt wirkt, ist er gestalterisch besonders raffiniert.

Micro-Industrial

Was früher rein funktional war, wird jetzt zum Gestaltungskonzept. Inspiriert von Verpackungen, technischen Etiketten und Informationsgrafiken bildet sich ein Designstil, der Klarheit feiert. Der gezielte Einsatz von Elementen wie Barcodes, QR-Codes und Rasterstrukturen verleiht den Entwürfen eine rohe, sachliche und zugleich moderne Ästhetik.

Neon Noir

Dunkel, intensiv und voller Spannung – der Stil erinnert an Szenen aus einem Neo-Noir-Film. Knallige Farben, wie elektrisches Rot, treffen auf tiefes Schwarz, kombiniert mit Bewegungsunschärfen und rauen Texturen. Der urbane, energiegeladene Look fällt sofort ins Auge und bleibt lange im Kopf.

Frutiger Aero Revival

Ein Hauch von Zukunft, so wie man sie sich früher vorgestellt hat: Glänzende Oberflächen, sanfte Farbverläufe und fließende Formen knüpfen an die Tech-Ästhetik der frühen 2000er an. Elemente wie Wasser, Himmel oder digitale Pflanzenwelten verleihen den Designs eine fast träumerische Leichtigkeit. Der Stil ist eine liebevolle Rückschau in eine Zeit, in der Technologie noch als Versprechen galt.

Fazit

Design darf wieder fühlen, Haltung zeigen und Ecken haben. Um als Marke aufzufallen, braucht man nicht mehr das glatteste Logo oder das perfekteste Bild, sondern Persönlichkeit, Mut und eine klare Botschaft. 2026 wird das Jahr, in dem Echtheit zählt. Das Beste daran: Es wird kreativ, lebendig und überraschend schön.

Weckruf für (KI-)Start-ups

Zwischen Pflicht und Potenzial: Warum der EU AI Act kein Stolperstein, sondern ein strategischer Hebel ist und wie junge Unternehmen ihn frühzeitig für sich nutzen können.

Spätestens seit der Verabschiedung des AI Acts der Europäischen Union im Jahr 2024 ist klar: Der Einsatz künstlicher Intelligenz (KI) in Europa wird rechtlich geregelt – verbindlich, umfassend und risikobasiert. Für viele Unternehmen, vor allem im Start-up-Umfeld, bedeutet das erst einmal: neue Vorgaben, viel Bürokratie, hoher Aufwand. Doch dieser Eindruck greift zu kurz. Denn der AI Act ist weit mehr als ein Regelwerk zur Risikominimierung; er bietet jungen Unternehmen die Chance, Ethik, Effizienz und Rechtssicherheit von Anfang an in Einklang zu bringen. Wer ihn strategisch klug nutzt, kann sich nicht nur vor teuren Fehlern schützen, sondern auch produktiver, innovativer und vertrauenswürdiger aufstellen.

Ein Weckruf mit Wachstumspotenzial

Der AI Act ist die erste umfassende gesetzliche Regelung weltweit, die den Umgang mit KI verbindlich definiert. Ziel ist es, Vertrauen in KI-Technologien zu schaffen, Risiken wie Diskriminierung oder Manipulation zu minimieren und gleichzeitig die Innovationskraft Europas zu sichern. Je nach Risikoklasse, von minimal über hoch bis unvertretbar, gelten unterschied­liche Anforderungen an Transparenz, Sicherheit und Kontrolle. Was viele dabei übersehen: Der AI Act richtet sich nicht nur an Entwickler*innen, sondern auch an Anwender*innen. Schon wer KI zur automatisierten Lebenslaufanalyse, zur Lead-Bewertung im Vertrieb oder für interne Personalentscheidungen nutzt, kann als Betreiber*in haftbar sein – inklusive Dokumentations- und Prüfpflichten. Seit Februar 2025 gilt zudem eine allgemeine Schulungspflicht für KI-Nutzung, unabhängig von Branche oder Unternehmensgröße.

Start-ups: (Noch) nicht betroffen? Ein Trugschluss

Gerade junge Unternehmen neigen dazu, gesetzliche Regularien auf die lange Bank zu schieben – oft verständlich, wenn Zeit, Geld und personelle Ressourcen knapp sind. Doch genau hier liegt das Risiko: Laut einer Bitkom-Studie haben sich nur rund 3 Prozent der Unternehmen intensiv mit dem AI Act beschäftigt. 25 Prozent wissen gar nichts davon. Ein gefähr­licher Blindflug, nicht nur wegen potenzieller Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des Jahresumsatzes, sondern weil damit auch Chancen verschenkt werden.

Dabei geht es beim AI Act nicht nur um Pflichterfüllung, sondern um Zukunftsfähigkeit. Wer KI nutzt, sei es für Marketing, Kund*innenservice oder Produktentwicklung, muss ihre Auswirkungen verstehen, Risiken identifizieren und Prozesse so gestalten, dass sie nachvollziehbar, fair und sicher bleiben. Für Start-ups, die langfristig skalieren und wachsen wollen, ist das kein Nice-to-have, sondern ein Muss.

Wissensdefizite als Wachstumsbremse

Aktuell setzen nur etwa 17 Prozent der kleinen und mittleren Unternehmen in Deutschland KI im Geschäftsalltag ein. Die Gründe: Über 70 Prozent nennen fehlendes Wissen, 58 Prozent Unsicherheit bei rechtlichen Fragen. Gerade bei Start-ups, deren Geschäftsmodell oft auf digitalen Lösungen basiert, ist diese Zurückhaltung alarmierend. Denn wer das Potenzial von KI nicht erkennt oder falsch einsetzt, verliert nicht nur Zeit, sondern auch Marktchancen. Dazu kommt noch die Sorge vor zukünftigen rechtlichen Einschränkungen, wie 82 Prozent der Anwender*innen generativer KI angeben, 73 Prozent verweisen auf die Datenschutzanforderungen als Hemmnis und 68 Prozent sehen Unsicherheiten durch rechtliche Unklarheiten.

Der Schlüssel liegt ganz klar in der Weiterbildung: Nur wer die Funktionsweise, Stärken und Grenzen von KI-Systemen versteht, kann sie verantwortungsvoll und effizient nutzen. Das beginnt schon bei der bloßen Auseinandersetzung mit dem AI Act: 69 Prozent der Unternehmen brauchen professionelle Hilfe dabei. Das betrifft nicht nur Entwickler*innen oder Tech-Teams, sondern auch Gründer*innen sowie Verantwortliche in Marketing, HR und Customer Support. Der AI Act kann dabei als Orientierung dienen: Er macht transparent, welche Prozesse es zu beachten gilt und wie sich Risiken frühzeitig erkennen und adressieren lassen.

KI im Marketing: Vom Tool zur Strategie

Beispiel: Im Marketing ist KI längst mehr als nur eine Helferin für Textgenerierung oder A/B-Testing. Sie analysiert Zielgruppen, erkennt Kaufmuster, generiert kreative Inhalte und liefert datenbasierte Insights in Echtzeit. Doch viele Marketingverantwortliche gehen mit KI noch zu leichtfertig um oder unterschätzen ihre strategische Wirkung. In modernen Marketingabteilungen dient KI als Beschleuniger, Effizienzmotor und kreativer Sparringspartner.

Doch um diesen Nutzen voll auszuschöpfen, braucht es klare Regeln, Datenqualität und nachvollziehbare Prozesse – genau das, was der AI Act einfordert. Was auf den ersten Blick wie ein regulatorisches Korsett wirkt, ist in Wahrheit ein Innova­tionstreiber: Wer frühzeitig in qualitätsgesicherte Datenprozesse, Modellvalidierung und Feedbackschleifen investiert, steigert nicht nur die Rechtssicherheit, sondern auch die Performance seiner Kampagnen.

Ethik als Wettbewerbsfaktor

Neben Effizienz und Legalität spielt auch Ethik eine zunehmend wichtige Rolle. Nutzer*innen und Kund*innen erwarten von Unternehmen, dass sie KI fair, transparent und verantwortungsvoll einsetzen. Diskriminierende Algorithmen, intransparente Entscheidungen oder Datenmissbrauch können nicht nur rechtliche Konsequenzen haben, sie beschädigen auch das Vertrauen in die Marke. Gerade Start-ups haben hier einen Vorteil: Sie können ethische Leitlinien von Anfang an mitdenken und in ihre Unternehmenskultur integrieren. Das schafft nicht nur Glaubwürdigkeit gegenüber Kund*innen, Investor*innen und Partner*innen – es spart auch spätere Reputationskosten. Studien zeigen: Unternehmen, die KI ethisch reflektiert einsetzen, erzielen höhere Zufriedenheitswerte bei Mitarbeitenden und Kundschaft, und sie sind resilienter gegenüber technologischen Risiken.

Von Anfang an strategisch denken

Für Gründer*innen und junge Unternehmen lautet die Empfehlung daher: Nicht warten, bis der AI Act zum Problem wird, sondern ihn frühzeitig als Chance nutzen, sich professionell aufzustellen. Das bedeutet konkret:

  • Verantwortlichkeiten klären: Wer ist im Unternehmen für KI verantwortlich – technisch, ethisch, rechtlich?
  • Transparente Prozesse etablieren: Wie werden Daten erhoben, verarbeitet und genutzt? Wer prüft Algorithmen auf Verzerrungen?
  • Schulungen anbieten: Alle, die mit KI-Systemen arbeiten, sollten deren Funktionsweise und rechtliche Implikationen kennen.
  • Ethikrichtlinien entwickeln: Wie kann das Unternehmen sicherstellen, dass KI fair, sicher und inklusiv eingesetzt wird?
  • Technologische Standards einhalten: Wer dokumentiert und validiert die eingesetzten Systeme regelmäßig?

Kein Bremsklotz, sondern ein Beschleuniger

Der EU AI Act ist ein Weckruf für Start-ups, die KI nutzen oder dies künftig wollen. Er schafft Klarheit, wo zuvor Unsicherheit herrschte, und definiert Standards, an denen sich junge Unternehmen orientieren können. Wer das ignoriert, riskiert nicht nur Bußgelder, sondern auch seine Wettbewerbsfähigkeit. Wer ihn jedoch proaktiv angeht, positioniert sich als verantwortungsvolle(r) Innovator*in. Der Wandel hat längst be­- gonnen. Jetzt ist die Zeit, ihn bewusst mitzugestalten.

Der Autor Bastian Sens ist Marketing-Experte und Gründer der Beratung & Academy Sensational GmbH

Report: Quantencomputing

Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.

Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.

Herausforderungen

Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.

Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.

Trends

In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.

Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.

Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintritts­barrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.

Die Rolle von Start-ups

Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.

Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.

Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.

Deutsche QC-Start-ups mischen ganz vorne mit

Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.

Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.

eleQtron: It's MAGIC

In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.

Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“

Es war ein ungewöhnlicher Ort für eine bahnbrechende

Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.

Von der Universität ...

Im Jahr 2020, als das globale Interesse an Quantentechnolo­gien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.

Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quanten­programme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.

In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.

... zum technologischen Durchbruch

Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer so­genannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikro­wellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“

Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.

Wachstumsschub und strategische Entwicklung

2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.

„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.

EU AI Act: Status quo

Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.

Überblick: Der AI Act

Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten Hochrisiko­Systeme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.

Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.

Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.

Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.

Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.

Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produkt­regulierung und Marktüberwachung.

Was fehlt? Guidance und Governance

Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.

Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.

Und wo steht Deutschland?

Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.

Reallabore

Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.

Reaktionen

Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.

Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschied­liche Informationen und Compliance-Nachweise verfügbar sind.

Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.

Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.

Fazit

Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.

Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Her­ausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.

Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München

Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen

Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.

Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.

Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede

Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.

Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.

Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?

Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.

Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.

Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?

Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.

Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.

Expertise als wichtiger Faktor für den Kauf einer Luxusuhr

So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.

Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.

Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.

Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.

Ein Ausblick auf die (mögliche) langfristige Wertentwicklung

Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.

Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.

Warum KI bei Förderanträgen versagt

Fünf Gründe, warum Unternehmen auf menschliche Intelligenz setzen sollten.

Ob steuerliche Forschungszulage, Investitionsförderung oder EU-Programme. Künstliche Intelligenz (KI) wie ChatGPT liefert in Sekundenschnelle eine Vielzahl möglicher Förderprogramme. Doch zwischen der reinen Information und der tatsächlichen Erschließung von Fördermitteln liegt ein erheblicher Unterschied. Hier gilt es, Unternehmen zu sensibilisieren.

Fördermittel sind heute ein strategischer Bestandteil moderner Unternehmensfinanzierung. Es reicht daher nicht, die Programme zu kennen. Entscheidend ist, sie rechtssicher, vollständig und förderlogisch aufeinander abgestimmt umzusetzen, um die vollen Förderpotenziale zu heben. Genau hier beginnt die Arbeit von Fördermittelexpert*innen.

Fünf Gründe, warum KI-Tools nicht als Fördermittelberater funktionieren

1. KI erkennt die wahren Förderpotenziale nicht

ChatGPT kann erklären, was ein Förderprogramm leistet. Doch welche Kosten eines konkreten Vorhabens tatsächlich und wie hoch förderfähig sind, lässt sich so nicht beurteilen. Gerade bei komplexen Programmen wie der steuerlichen Forschungszulage sind Erfahrung, Struktur und rechtssichere Abgrenzung entscheidend. Eine gute Fördermittelberatung prüft jedes Vorhaben systematisch: von der Förderfähigkeit nach dem Forschungszulagengesetz (FZulG), AGVO oder De-minimis-Verordnung bis hin zur klaren Trennung förderfähiger und nicht förderfähiger Aufwände.

2. KI kann keine Förderstrategien entwickeln

Eine Liste von Förderprogrammen ersetzt keine Strategie. KI kann nur Optionen nennen, aber keine Strategien zur Umsetzung im Unternehmen entwickeln. Eine gute Fördermittelberatung integriert die Forschungszulage sinnvoll in laufende Projekte und strukturiert Innovations- sowie Investitionsprozesse auf Bundes-, Landes- und EU-Ebene. So entstehen nicht nur Optionen, sondern belastbare, wirtschaftlich wirksame Lösungen.

3. KI kann nicht mit Menschen kommunizieren

Ein Antrag ist mehr als ein Formular. Er muss Anforderungen erfüllen und überzeugen. KI liefert Textbausteine, aber führt keine Gespräche und reagiert nicht auf Rückfragen mit der notwendigen Erfahrung in der Verwaltungspraxis der verschiedenen Förderprogramme. Eine gute Fördermittelberatung übernimmt die gesamte Kommunikation mit Förderstellen, koordiniert mit Bescheinigungsstellen und entwickelt formal korrekte und überzeugende Argumentationen.

4. KI endet beim Prompt – Fördermittelberatung bei der erfolgreichen Projektprüfung

Nach dem Antrag geht die Arbeit oft erst richtig los. Rückfragen, Prüfungen, Nachweise. KI kann Unternehmen dabei nicht unterstützen und keine Verantwortung übernehmen. Eine gute Fördermittelberatung hingegen begleitet die Kund*innen durch den gesamten Förderzyklus mit sauberer Dokumentation, revisionssicherer Aufbereitung und Unterstützung bei Audits und Außenprüfungen.

5. KI zeigt nur den Dschungel – Förderexperten finden den Schatz

Datenbanken geben einen Überblick, aber keine Richtung. Eine gute Fördermittelberatung bewertet alle denkbar möglichen Förderprogramme im konkreten Unternehmenskontext und entwickelt daraus konkrete Maßnahmen, um das Maximum an Fördermöglichkeiten für die Kund*innen rauszuholen. Eine gute Fördermittelberatung schafft so echte wirtschaftliche Vorteile statt der bloßen Auflistung von Fördermöglichkeiten.

Der Autor Efe Duran Sarikaya ist CEO der Fördermittelberatung EPSA Deutschland.

„Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing“

Mit planqc verfolgt Dr. Alexander Glätzle die Mission, hochskalierbare Quantencomputer für wirtschaftliche Anwendungen zu bauen. Warum das Unternehmen dabei auf Standorte wie München und Innsbruck setzt und welche Rolle Österreichs Talentpool spielt, verrät er im Interview.

Dr. Alexander Glätzle ist Quantenphysiker und Mitgründer von planqc. Er studierte und promovierte an der Universität Innsbruck, forschte an renommierten Instituten wie Oxford, Harvard sowie in Singapur und war als Unternehmensberater tätig. 2022 gründete er planqc als Ausgründung aus dem Max-Planck-Institut in München.

Herr Dr. Glätzle, wie entstand die Unternehmensidee und welche Meilensteine haben Sie mit planqc bisher erreicht?

Die Idee zu planqc ist bereits während meines Studiums an der Universität Innsbruck entstanden. Dort habe ich intensiv im Bereich Quantentechnologie geforscht und das enorme Potenzial erkannt, aus diesen Erkenntnissen ein Start-up zu gründen. Bis zur Gründung hat es allerdings noch einige Jahre gedauert – nicht zuletzt, weil die technologische Entwicklung im Labor ebenfalls voranschreiten musste. 2022 sind wir dann als Ausgründung aus dem Max-Planck-Institut offiziell gestartet. Zu den wichtigsten Meilensteinen zählen zwei große öffentlich geförderte Projekte: Für das Deutsche Zentrum für Luft- und Raumfahrt bauen wir einen Quantencomputer mit einem Volumen von 30 Mio. EUR, ein weiteres Projekt mit dem Leibniz-Rechenzentrum umfasst 20 Mio. EUR, beide mit Abschluss bis Ende 2026 bzw. 2027. Dann werden an diesen beiden Standorten voll funktionsfähige Quantencomputer von planqc installiert sein.

Sie haben bereits Venture Capital mit an Bord. Wer zählt zu Ihren Investoren?

Gestartet sind wir 2022 mit einer Seed-Runde, an der unter anderem UVC Partners, Speedinvest und Apex Ventures beteiligt waren – also bereits starke Partner auch aus Österreich. Diese Basis konnten wir in der Series-A im letzten Jahr weiter ausbauen. Die CATRON Holding, ein Wiener Family Office, ist als Lead-Investor eingestiegen. Dazu kamen weitere Partner wie der DeepTech & Climate Fonds sowie Bayern Kapital. Besonders erfreulich ist, dass auch unsere Bestandsinvestoren erneut signifikant investiert haben. Damit verfügen wir über eine starke, rein mitteleuropäische, deutsch-österreichische Investorenbasis – was in unserem Sektor tatsächlich selten ist.

Ihr Headquarter befindet sich in der Nähe von München. Was hat Sie dazu bewegt, zusätzlich einen Standort in Innsbruck zu eröffnen?

Ursprünglich haben wir planqc in München gegründet – als Ausgründung aus dem Max-Planck-Institut. Doch bereits innerhalb eines Jahres haben wir ein zweites Büro in Innsbruck eröffnet. Der Grund liegt auf der Hand: Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing. Mit renommierten Instituten wie dem Institut für Quantenoptik und Quanteninformation (IQOQI) und Persönlichkeiten wie Peter Zoller und Rainer Blatt gibt es dort eine kritische Masse an international anerkannten Wissenschaftlern. Zudem ist es in der Praxis oft schwierig, hochqualifizierte Talente aus der Region nach München zu bringen. Deshalb haben wir entschieden, ihnen vor Ort ein attraktives Arbeitsumfeld zu bieten – mit einem eigenen Standort in Innsbruck.

Welche Vorteile bietet der Standort Österreich speziell für Unternehmen im Bereich Quantencomputing?

Österreich hat eine lange und starke Tradition in der Quantenphysik. Universitäten wie Innsbruck und Wien, das IQOQI und eine ganze Generation exzellenter Wissenschaftler prägen diese Landschaft. Viele bahnbrechende theoretische und experimentelle Arbeiten wurden hier in den vergangenen Jahren geleistet. Gerade für junge Start-ups bietet das Land enorme Vorteile: Der Talentpool ist außergewöhnlich – mit hervorragend ausgebildeten, dynamischen Fachkräften. Darüber hinaus ist die Nähe zu sogenannten „Industry First Movern“ gegeben, was den Standort besonders spannend macht. Und nicht zuletzt hat Österreich eine historische Verbindung zur Physik – Namen wie Schrödinger, Pauli oder Hess stehen sinnbildlich für diese wissenschaftliche Tiefe.

Welche Unterstützung erhielten Sie bei der Ansiedlung durch die Austrian Business Agency?

Die Austrian Business Agency sowie die Standortagentur Tirol haben uns außerordentlich engagiert unterstützt – sei es bei der Suche nach Büroflächen, bei der Eröffnung des ersten Bankkontos oder in bürokratischen Fragen. Sie standen uns nicht nur beratend zur Seite, sondern haben uns tatkräftig geholfen, Hürden aus dem Weg zu räumen. Genau so stelle ich mir die Zusammenarbeit mit einer lokalen Agentur vor: nah dran, lösungsorientiert und mit exzellentem Netzwerk. Wir hatten wirklich großes Glück mit der Unterstützung vor Ort.

Sie selbst sind in Österreich geboren, haben in Innsbruck promoviert und weltweit Forschungsaufenthalte absolviert – bevor Sie als Unternehmensberater und Gründer nach München gingen. Mit welchen Qualitäten punktet Österreich allgemein, auch als Arbeits- und Wohnort?

Ich habe viele Jahre im Ausland gelebt und gearbeitet – in Oxford, Singapur und Deutschland. Was Innsbruck und Tirol für mich besonders macht, ist die Kombination aus wissenschaftlicher Exzellenz und hoher Lebensqualität. Die Stadt liegt inmitten der Alpen, bietet eine hervorragende Infrastruktur und ein ausgewogenes Verhältnis zwischen Studierenden und Einwohnern. Das schafft ein inspirierendes Umfeld – zum Leben, Forschen und Arbeiten gleichermaßen.

Dr. Alexander Glätzle, vielen Dank für das Gespräch.

Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin

Was sollten Eigentümer in Bezug auf Gewerbeimmobilien beachten?

Entdecken Sie wichtige Tipps für Gewerbeimmobilien-Eigentümer. Infos und wichtige Details.

Gewerbeimmobilien stellen eine wichtige Anlageklasse dar, die sowohl attraktive Renditen als auch besondere Herausforderungen mit sich bringt. Der deutsche Gewerbeimmobilienmarkt erlebt derzeit nicht nur einen zyklischen Abschwung, sondern einen dauerhaften strukturellen Wandel durch die Zinswende. Diese Entwicklung verändert die Rahmenbedingungen für Eigentümer grundlegend und erfordert eine Anpassung der Investitionsstrategien.

Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen neue Aspekte wie Nachhaltigkeit, Energieeffizienz und regulatorische Anforderungen zunehmend an Bedeutung. Eine fundierte Kenntnis aller relevanten Faktoren ist daher essentiell für erfolgreiche Gewerbeimmobilien-Investments. Die folgenden Abschnitte liefern eine praktische Übersicht.

Frühzeitig Verpflichtungen rund um das Thema Gebäude prüfen

Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen auch technische und infrastrukturelle Aspekte zunehmend an Bedeutung. Insbesondere Kanalservicearbeiten, wie die Wartung und Instandhaltung der unterirdischen Versorgungsnetze, spielen eine wesentliche Rolle bei der Sicherstellung der langfristigen Werthaltigkeit von Gewerbeimmobilien.

Unter anderem liefert das Kanalservice Magazin hierzu wertvolle Informationen rund um Anbieter und Co. Regelmäßige Inspektionen und Reparaturen von Abwasser- und Entwässerungssystemen sind nicht nur aus rechtlichen und sicherheitstechnischen Gründen wichtig, sondern auch für die Betriebskosten und die Nutzungseffizienz einer Immobilie entscheidend.

Eigentümer sollten sich daher frühzeitig mit den Anforderungen an den Kanalservice auseinandersetzen und sicherstellen, dass diese regelmäßig und vorausschauend durchgeführt werden, um teure Notfalleinsätze und mögliche Wertverluste zu vermeiden.

Steuerliche Vorteile optimal nutzen: Abschreibungen und Umsatzsteuer

Gewerbeimmobilien bieten gegenüber Wohnimmobilien deutliche steuerliche Vorteile, die Eigentümer unbedingt nutzen sollten. Der wichtigste Vorteil liegt in der höheren Abschreibungsrate von 3% jährlich statt der üblichen 2% bei Wohnimmobilien. Diese zusätzliche Abschreibung reduziert die Steuerlast erheblich und verbessert die Rendite nachhaltig.

Ein weiterer bedeutender Vorteil ist die Möglichkeit der 19% Umsatzsteuer-Erstattung beim Erwerb der Immobilie. Voraussetzung hierfür ist die ordnungsgemäße Anmeldung als Unternehmer und die entsprechende Verwendung der Immobilie.

Diese Steuervorteile können die Wirtschaftlichkeit einer Gewerbeimmobilie maßgeblich beeinflussen und sollten bereits in der Planungsphase berücksichtigt werden. Eine professionelle steuerliche Beratung ist dabei unerlässlich. Besonders praktisch ist es in diesem Zusammenhang natürlich auch, dass Studien zufolge aktuell Gründungen in verschiedenen deutschen Städten generell vergleichsweise günstig sind.

Neue Heizungspflicht: Vorgaben rund um erneuerbare Energien seit 2024

Seit 2024 müssen neu installierte Heizungen zu 65% mit erneuerbaren Energien betrieben werden – eine Regelung, die erhebliche Auswirkungen auf Gewerbeimmobilien hat. Diese Vorgabe betrifft sowohl Neubauten als auch den Austausch bestehender Heizungsanlagen und erfordert eine frühzeitige Planung.

Mögliche Lösungen umfassen:

  • Wärmepumpen
  • Fernwärme
  • Biomasseheizungen
  • Hybrid-Systeme

Die Investitionskosten sind oft höher als bei konventionellen Systemen, jedoch können staatliche Förderungen einen Teil der Mehrkosten abfedern.

Langfristig ergeben sich durch niedrigere Betriebskosten und steigende CO2-Preise wirtschaftliche Vorteile. Eigentümer sollten rechtzeitig prüfen, welche Technologie für ihre Immobilie am besten geeignet ist, und entsprechende Budgets einplanen. Eine professionelle Energieberatung hilft bei der optimalen Lösung.

Photovoltaik-Potenziale: Chancen und rechtliche Hürden

Die geplante Verdreifachung des Photovoltaik-Ausbaus bis 2030 eröffnet Gewerbeimmobilien-Eigentümern interessante Chancen zur zusätzlichen Wertschöpfung. Gewerbedächer bieten oft ideale Voraussetzungen für Solaranlagen: große, unverschattete Flächen und hoher Eigenverbrauch während der Tagesstunden.

Die Eigenverbrauchsquote kann bei Gewerbeimmobilien deutlich höher liegen als bei Wohngebäuden, was die Wirtschaftlichkeit verbessert. Allerdings bestehen auch rechtliche Hürden, insbesondere bei der Direktvermarktung von Strom an Mieter. Das Mieterstromgesetz und energierechtliche Bestimmungen schaffen komplexe Rahmenbedingungen.

Trotz dieser Herausforderungen können Photovoltaik-Anlagen die Attraktivität einer Gewerbeimmobilie steigern und zusätzliche Einnahmen generieren. Eine sorgfältige Prüfung der rechtlichen und wirtschaftlichen Aspekte ist dabei unerlässlich. Der Faktor „Nachhaltigkeit“ spielt generell aber auch in vielerlei Hinsicht eine wichtige Rolle. So entscheiden sich nicht nur im privaten, sondern auch im gewerblichen Bereich viele dafür, nicht direkt neu zu kaufen, sondern zu reparieren. Ideal für alle, die den ökologischen Fußabdruck ihres Betriebes reduzieren möchten.

Erfolgreich investieren: Wichtige Erkenntnisse für Gewerbeimmobilien-Eigentümer

Erfolgreiche Gewerbeimmobilien-Investments erfordern heute mehr denn je eine ganzheitliche Betrachtung aller relevanten Faktoren. Die steuerlichen Vorteile mit 3% Abschreibung und Umsatzsteuer-Erstattung bleiben wichtige Argumente für diese Anlageklasse.

Gleichzeitig steigen die Anforderungen durch neue Regelungen wie die Heizungspflicht und ESG-Kriterien erheblich. Der strukturelle Wandel des Marktes erfordert angepasste Strategien und eine sorgfältige Auswahl der Immobilien.

Chancen ergeben sich insbesondere in zukunftsorientierten Segmenten wie Logistik und bei der Integration erneuerbarer Energien. Eine professionelle Beratung und kontinuierliche Marktbeobachtung sind unerlässlich. Das Kanalservice Magazin bietet hierfür wertvolle Unterstützung mit fundierten Informationen und praktischen Tipps für alle Aspekte des Gewerbeimmobilien-Investments.

DefenseTech-Report 2025

Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Wie DefTech-Start-ups Sicherheit und Verteidigung durch Innovationskraft, Agilität und Flexibilität revolutionieren.

Der russische Überfall auf die Ukraine im Februar 2022 markierte einen Wendepunkt für die deutsche Verteidigungspolitik. Der Bundeskanzler rief die „Zeitenwende“ aus – einen Kurswechsel, der u.a. ein Sondervermögen von 100 Mrd. Euro für die Bundeswehr einschloss. Seither rücken technologische Innovationen für die Verteidigung verstärkt in den Fokus. DefenseTech-Start-ups (auch DefTechs genannt) – also junge Technologieunternehmen mit rein militärischen oder Dual-Use-Anwendungen (zivil und militärisch) – erleben seitdem einen Aufschwung. Die USA haben deutlich signalisiert, dass ihre Bereitschaft, als Arsenal der Demokratie unbegrenzt westliche Verteidigung zu finanzieren, nachlässt. Europa, Deutschland im Besonderen, muss also eigene Innovationskraft mobilisieren, um wirksam abschrecken zu können.

Start-ups im Gefechtsfeld der Zukunft: Lehren aus dem Ukraine-Krieg

Der russische Angriffskrieg offenbart, welche Technologien und Akteur*innen auf dem Gefechtsfeld der Zukunft dominieren werden. Auffällig ist, wie ein verteidigungsnahes Innovationsökosystem aus Tech-Start-ups und Dual-Use-Technologien in der Ukraine binnen kurzer Zeit Lösungen hervorbrachte, die Russlands konventionelle Überlegenheit teilweise neutralisierten.

Die ukrainischen Streitkräfte setzen neue Taktiken und Waffensysteme zudem mit einer Agilität ein, die westliche Armeen – mit ihren oft jahrelangen Beschaffungszyklen – nicht erreichen.

Im Ukraine-Krieg haben sich vor allem Drohnen als Gamechanger erwiesen. First-Person-View-(FPV)-Drohnen fungieren gleichsam als „Infanterie“ der Drohnenkriegsführung – sie sind zu einer tragenden Säule von Kiews Kriegsanstrengungen geworden und verursachen Schätzungen zufolge bis zu 80 Prozent der russischen Verluste auf dem Gefechtsfeld.

Ukrainische Herstellende – vielfach kleine Firmen – produzieren aktuell rund 200.000 FPV-Drohnen pro Monat und ersetzen zunehmend importierte Bauteile durch eigene Entwicklungen. Solche billigen Mini-Drohnen können aber Panzer oder Radaranlagen im Wert von Millionen zerstören – ein eklatantes Kosten-Nutzen-Missverhältnis zu Ungunsten klassischer Wehrtechnik. Daneben prägen Loitering Munitions (umherschweifende „Kamikaze-Drohnen“) den Konflikt.

Überhaupt redefiniert die Ukraine den Drohneneinsatz: Wie Forbes berichtete, wurde entlang der Front ein rund 25 km breiter „Kill-Zone“-Streifen eingerichtet, patrouilliert von Schwärmen kleiner Drohnen, der feindliche Truppenansammlungen nahezu unmöglich macht – die NATO erwägt bereits eine ähnliche „Drone Wall“ zum Schutz ihrer Ostflanke. Die Allgegenwart von Drohnen rief freilich elektronische Gegenmaßnahmen auf den Plan: Beide Seiten überziehen sich mit immer neuen Electronic-Warfare-Taktiken, vom Stören und Spoofen von GPS- und Funkverbindungen bis hin zu improvisierten physischen Schutzgittern („cope cages“) an Fahrzeugen. Im Gegenzug werden jetzt verstärkt per Glasfaser ferngelenkte Drohnen entwickelt, die gegen Funk-Jamming immun sind. Auch im Cyber-Raum tobt der Schlagabtausch, der jedoch trotz einzelner schwerer Angriffe offenbar bislang keine strategisch entscheidenden Wirkungen erzielte.

Den größten Wert haben Cyber-Operationen daher bislang für Aufklärung und Störung gegnerischer Kommunikation. Insgesamt gilt dieser Krieg auch als erster großer Konflikt, in dem kommerzielle Technik so umfassend militärisch genutzt wird, dass Beobachtende bereits vom ersten „kommerziellen Raumfahrtkrieg“ sprechen. Private Satelliten liefern der Ukraine rund um die Uhr Geodaten und Aufklärung, während tausende Starlink-Terminals ein robustes Kommunikationsnetz auf dem Gefechtsfeld sicherstellen. Ebenso werden zivil verfügbare Drohnen, handelsübliche 3D-Drucker und KI-Software in militärische Anwendungen überführt. Mit erschwinglichen Geräten und Software lässt sich realisieren, was früher teuren Spezialkräften vorbehalten war. Die Kehrseite ist, dass die Trennung zwischen zivilem und militärischem Bereich zunehmend verschwimmt, was ethische und sicherheitspolitische Fragen aufwirft.

Die Rolle von Start-ups

Viele dieser Innovationen wurden nicht von Rüstungsriesen ersonnen, sondern von kleinen, agilen Akteur*innen. In der Ukraine stützt man sich auf eine lebhafte Tech-Start-up-Szene und eine flexible Rüstungsindustrie, um Russlands zahlenmäßige Vorteile auszugleichen. Die Iterationsgeschwindigkeit ist beeindruckend: Die Entwicklungszyklen für neue Lösungen sind von Jahren auf Monate, Wochen oder gar Tage geschrumpft. Agile Start-ups und Entwickler*innen-Teams an der Front reagieren in Echtzeit auf Bedrohungen. Sie fügen ständig neue Gegenmaßnahmen und Verbesserungen hinzu, um der Gegenseite immer einen Schritt voraus zu sein.

Dieser direkte Innovationsloop vom Gefechtsfeld in die Werkstatt und zurück beschleunigt den Fortschritt enorm. So schießen etwa ukrainische Drohnen-Workshops buchstäblich in Kellern und umfunktionierten Supermärkten aus dem Boden, um Produktion und Entwicklung selbst unter Beschuss aufrechtzuerhalten. Start-ups bringen eine Kultur der schnellen Iteration ein, die klassische Rüstungsbetriebe so nicht kennen. Das Ergebnis: 500-US-Dollar-Drohnen werden im Feld per Trial-and-Error optimiert und können anschließend einen 5-Mio.-US-Dollar-Panzer ausschalten.

Gründungs-Boom im Verteidigungssektor

Auch außerhalb der Ukraine hat der Krieg einen Gründungs-Boom ausgelöst. Wagniskapital fließt so stark wie nie in europäische Verteidigungs- und Sicherheits-Technologie: 2024 wurden in diesem Sektor 5,2 Mrd. US-Dollar investiert – ein Allzeithoch. Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Einige staatlich unterstützte VC-Fonds in Europa, wie z.B. SmartCap aus Estland, fördern mittlerweile explizit Rüstungsinvestments. Zwar ist die europäische VC-Branche aufgrund vertraglicher Bindungen insgesamt noch zögerlich, doch die Zurückhaltung wirkt 2025 überholt. Schließlich zeigt der Ukraine-Krieg, dass technologische Innovation das Kriegsgeschehen entscheidend beeinflusst – eine Wahrheit, die in den vergangenen Friedensdekaden in Vergessenheit geriet.

Auch in Deutschland entsteht ein dynamisches Ökosystem, das viele Technologiefelder abdeckt. Die wichtigsten sind künstliche Intelligenz und autonome Systeme, Quantentechnologien, Human Enhancement, Hyperschalltechnologien, neuartige Materialien und Fertigungsverfahren, Raumfahrttechnologien, Advanced Manufacturing sowie resiliente Energiesysteme. Die Bitkom befragte kürzlich 44 deutsche DefTech- und Dual-Use-Start-ups, aber die Dunkelziffer dürfte höher liegen, da inzwischen viele DeepTech-Start-ups mit dem Verteidigungsmarkt liebäugeln.

So hat das Digital Hub Security & Defense BASED während der letzten Münchner Sicherheitskonferenz 80 DefTech-Start-ups auf dem „Sicherheitsfrühstück“ einer fast ebenso großen Zahl an Investor*innen vorgestellt. BASED hat sich auf die Fahnen geschrieben, DefTech-Start-ups „investment ready“ zu machen. Und viele Gründer*innen und Talente entscheiden sich angesichts der Bedrohungslage auch „mission driven“ für die Verteidigung, um einen Beitrag zum Schutz unserer Demokratie zu leisten.

Ein Beispiel für ein erfolgreiches europäisches Verteidigungs­Start-ups ist neben ARX Robotics (mehr dazu liest du hier in der Coverstory unserer Magazin-Ausgabe 02/25) oder Quantum Systems aus München auch das Unicorn Helsing, das den HX-2-Drohnenjäger entwickelte und Produktionskapazitäten in Deutschland aufbaut, um monatlich vierstellige Stückzahlen zu liefern. Solche Newcomer zeigen, wie Innovationskraft, Tempo und Skalierung im Ernstfall aussehen können – und dass Start-ups mit unkonventionellen Ansätzen binnen kurzer Zeit Fähigkeiten bereitstellen könnten, für deren Entwicklung traditionelle Rüstungsprogramme in der Vergangenheit Jahrzehnte gebraucht haben. Nicht zuletzt hat der Krieg die Produktionslogik verändert: Entscheidend ist nicht mehr, ein Waffensystem mit allen erdenklichen Sonderwünschen als „Goldrandlösung“ zu perfektionieren, sondern es schnell und robust in großen Stückzahlen bereitzustellen. Auch deutsche Rüstungsfirmen wie Hensoldt sprechen von einem Paradigmenwechsel: weg von der früheren „Boutique“-Fertigung hin zur Massenproduktion. Geschwindigkeit schlägt Sonderanfer­tigung: Statt monatelanger Feintuning-Schleifen gilt nun, was an der Front sofort wirkt.

Lehren für den Westen und Deutschland

Was bedeuten diese Erfahrungen für die Bundeswehr und ihre Partner*innen? Zunächst, dass Beschaffungsbürokratien und veraltete Prozesse zum Sicherheitsrisiko werden. In der Ukraine hat sich der traditionell träge Militärapparat unter existenziellem Druck rasant gewandelt. Westliche Länder müssen diese Lektionen proaktiv aufgreifen. Im Schnitt dauern Rüstungsprojekte in Deutschland sechs bis sieben Jahre – eine so lange Durststrecke überlebt kein Start-up in der schnelllebigen Tech-Welt. In der Vergangenheit haben sich talentierte Gründer*innen und Investor*innen daher lukrativeren Branchen zugewandt, statt jahrelang auf einen Durchbruch im Verteidigungssektor zu hoffen. Wollen staatliche Stellen die Innovationskraft der Start-up-Welt nutzen, müssen sie nun zu verlässlichen und schnelleren Kund*innen werden. Dazu gehört, Vergabeverfahren radikal zu verschlanken, mehr Wettbewerb und Transparenz zu schaffen und nicht-traditionelle Anbieter*innen aktiv einzubinden.

Die Politik hat dies erkannt: In Berlin hat sich die neue Koalition vorgenommen, die langsamen Beschaffungsabläufe grundlegend zu reformieren. Eine Analyse des Wirtschaftsministeriums (BMWK) identifizierte bereits 2023 Bremsklötze: übermäßige parlamentarische Einmischung bei jedem Auftrag über 25 Mio. Euro, komplizierte Regulierung sowie zu enge Grenzen bei der Forschungsförderung. Diese Hürden führen dazu, dass Innovationen im „Tal des Todes“ versickern – dem Übergang von Prototypen in die Serienbeschaffung. Durch bürokratische Verzögerungen verliert neue Technik dort kritische Zeit und Schwung, bisweilen verschwindet sie ganz. Um das zu verhindern, muss es strukturelle Änderungen geben: von der Verstetigung von Innovationsbudgets über beschleunigte Genehmigungswege bis hin zur besseren Verzahnung von zivilen Talenten mit militärischen Bedarfsträger*innen. Kurz: Die Streitkräfte dürfen nicht länger in Friedensroutine verharren.

Zugleich müssen Produktionskapazitäten hochgefahren werden. Der Krieg lehrt, dass eine industriell-logistische Mobilmachung nötig ist, um im Ernstfall genug Material bereitstellen zu können – seien es Munition, Drohnen oder Ersatz­teile. Dafür braucht es auch neue Geschäftsmodelle und modulare „Factories“ in Europa, die bei Bedarf binnen kürzester Zeit die Ausstoßzahlen hochskalieren können. Auch Abhängigkeiten von langen und störanfälligen Lieferketten im Bereich der Rohstoffe und Komponenten müssen reduziert werden.

Generell sollten westliche Regierungen verstärkt Kapital in junge Verteidigungsfirmen lenken – etwa durch Wagniskapitalfonds oder Innovationsprogramme – und verhindern, dass große Rüstungskonzerne vielversprechende Neulinge bloß aufkaufen, um deren Technologien vom Markt zu nehmen. Die Innovationsökosysteme rund um Verteidigung müssen sorgfältig kultiviert werden, damit die aktuelle Aufbruchsstimmung nicht abrupt endet. Dazu gehört auch ein Mentalitätswandel bei Investor*innen: Die Jahrzehnte währende Scheu vor Wehrtechnik-Investments ist nicht mehr zeitgemäß – letztlich hängt die Sicherheit Europas von unserer technologischen Stärke ab.

Fazit

Der Ukraine-Krieg führt vor Augen, wie künftig Kriege entschieden werden: durch Geschwindigkeit und Innovationskraft. Günstige, flexibel einsetzbare Technologien – oft entwickelt von neuen Akteur*innen – können hochgerüstete Gegner*innen ins Wanken bringen. Start-ups avancieren hierbei zum strategischen Faktor. Sie liefern Agilität, frische Ideen und die Fähigkeit, sich im Kriegsverlauf iterativ anzupassen.

Die Autorin Prof. Dr. Rafaela Kraus ist Professorin für Unternehmens- und Personalführung soeir ehem. Vizepräsidentin der Universität der Bundeswehr München und hat dort u.a. das Entrepreneurship-Center founders@unibw ins Leben gerufen. Als Defense-Innovation-Expertin ist sie Initiatorin von BASED, dem Münchner Digital Hub Security & Defense

5 Tipps für GPT-Sichtbarkeit im Netz

Warum klassisches SEO allein nicht mehr ausreicht und wie Unternehmen für die KI-Antworten der GPT-Modelle sichtbar werden.

Die Spielregeln der digitalen Sichtbarkeit werden gerade neu geschrieben – und die Unternehmen müssen sich neu aufstellen. Denn während viele Unternehmen ihre Strategien noch immer ausschließlich auf Google-Rankings und SEO-Kriterien ausrichten, verlagert sich die digitale Aufmerksamkeit längst in Richtung KI: Sprachmodelle wie ChatGPT, Claude oder Gemini ersetzen zunehmend die klassische Suche. Sie liefern keine Trefferlisten mehr, sondern direkte, aufbereitete Antworten – oft mit konkreten Empfehlungen und Verlinkungen. Für Marken, Produkte und Unternehmen wird es damit entscheidend, in diesen zusammengefassten Antworten stattzufinden. Das Stichwort hierfür ist technisches SEO für KI-Rankings.

Suchmaschinen waren gestern das führende Element in der Sortierung von Wissen im Netz und vor allem das Google-Ranking war entscheidend für die Sichtbarkeit von Informationen und Seiten. In Zukunft entscheiden dagegen Sprachmodelle darüber, welche Inhalte gesehen, zitiert und empfohlen werden. Und wer in diesen Systemen nicht genannt wird, verliert den direkten Draht zur Zielgruppe.

Diesen Paradigmenwechsel vom Google-Ranking zur Antwortlogik hat die SMAWAX, die auf Strategieberatung spezialisierte Agentur der Smarketer Group, erstmals systematisch im Rahmen eines Whitepapers analysiert (s. Link am Ende des Beitrags). Die Expert*innen erklären dabei detailliert, wie GPT-Modelle Inhalte auswählen – und welche Inhalte von den Systemen überhaupt referenziert werden dürfen. Die zentrale Erkenntnis: Suchmaschinenoptimierung nach alten Regeln greift zu kurz, ist aber weiterhin die Sichtbarkeitsgrundlage. Denn Sprachmodelle wie ChatGPT denken nicht in Keywords und Rankings, sondern in semantischen Relevanzräumen, Entitätenbeziehungen und struktureller Klarheit.

Inhalte müssen modular und semantisch präzise sein – doch das reicht nicht

Es geht nicht mehr um Top-Rankings – es geht darum, die richtige Antwort zu sein. Wir müssen SEO neu denken – als Schnittstelle zwischen Struktur, Relevanz und maschinellem Verstehen. Inhalte müssen dazu maschinenlesbar, modular aufgebaut und semantisch präzise sein. Nur dann haben Unternehmen eine Chance, in den Empfehlungslogiken von Claude, GPT & Co. aufzutauchen.

Besonders überraschend ist dabei aber, dass viele Unternehmen in GPT-Antworten zwar durchaus latent präsent, aber nicht sichtbar sind. Der Grund hierfür sind unscharfe Entitäten, fehlende „About“-Seiten, keine Verankerung in externen Quellen wie Wikidata, Trustpilot oder LinkedIn. Die Folgen wirken sich negativ auf die Marken aus und sorgen für Fehlinformationen: KI-Modelle verwechseln Marken, halluzinieren Funktionen oder verschweigen relevante Angebote. Halluzinationen sind in Wahrheit ein strategischer Hinweis auf Unsichtbarkeit. Wenn GPT ein Produkt falsch beschreibt oder dich mit einem Mitbewerber verwechselt, zeigt das: Deine Inhalte sind zwar irgendwo im Modell – aber nicht stabil genug verankert, um korrekt genannt zu werden.

Fünf konkrete Hebel für bessere GPT-Sichtbarkeit

Diese praxisnahe Handlungsempfehlungen können Unternehmen sofort umsetzen können – unabhängig davon, ob sie im B2B- oder B2C-Bereich aktiv sind.

1. Entitäten definieren: Jede Marke braucht heute eine kanonische „About“-Seite, ergänzt um ein Wikidata-Profil, semantische Markups und gleiche Namensverwendungen auf Plattformen wie LinkedIn oder Handelsregister.

2. Aktualität signalisieren: GPT-Modelle bevorzugen Inhalte mit klaren Update-Daten (z.B. dateModified). Ohne erkennbaren Pflegezustand gelten Inhalte als veraltet – und werden ausgefiltert.

3. Bing wird zum Gateway: Weil GPT seine Websuche auf Bing stützt, ist dessen Indexierung entscheidend. Wer dort nicht sauber auffindbar ist, existiert in GPT-Antworten nicht.

4. Content chunkbar machen: Inhalte sollten nicht mehr aus langen Fließtexten bestehen, sondern in modularen Blöcken mit H2-Strukturen, Listen und Zwischenfazits aufgebaut sein.

5. Externe Signale einbinden: Erwähnungen auf Trustpilot, Reddit oder in der Fachpresse stärken die semantische Autorität – und erhöhen die Chance, von Sprachmodellen zitiert zu werden.

Fazit

Die neue Sichtbarkeit entsteht durch das, was das Modell nicht selbst erzeugen kann – sie entsteht also nicht über Rankings, sondern über Relevanzräume. Wer auf Standard-Content setzt, wird paraphrasiert oder übergangen. Wer dagegen einzigartigen, strukturierten und technisch klaren Content liefert, wird empfohlen.

Zum Weiterlesen: Das Whitepaper steht zum kostenlosen Download bereit unter www.smawax.com/whitepaper-ki-sichtbarkeit

Digitaler Vorreiter: Wie Bootsschule1 die Sportboot-Ausbildung umkrempelt

Bootsschule1 überzeugt mit SmartLearn™-Plattform, AllInclusivePaketen, hoher Qualität und bundesweiter Praxis – digital, transparent und risikofrei.

Der Weg zum Sportbootführerschein galt lange als bürokratisch, zeitraubend und unflexibel – geprägt von Präsenzunterricht, Papierbergen und Prüfungsstress. Wer beruflich eingespannt ist oder außerhalb von Metropolregionen lebt, sah sich oft mit logistischen Hürden konfrontiert. Genau an diesem Punkt setzt Bootsschule1 an – und definiert die Ausbildung auf dem Wasser neu. Nicht mit leeren Marketingversprechen, sondern mit einem durchdachten Gesamtkonzept, das sich konsequent an den Bedürfnissen moderner Lerner orientiert.

Was einst nach trockener Theorie und starren Kurszeiten roch, verwandelt sich hier in ein digitales Lernsystem, das in punkto Nutzerfreundlichkeit und Didaktik Maßstäbe setzt. Im Zentrum steht eine selbst entwickelte Lernplattform, die Inhalte in kurzen, präzise aufbereiteten Videolektionen vermittelt – ergänzt durch realistische Prüfungssimulationen und ein umfassendes All-Inclusive-Paket, das vom Navigationsbesteck bis zur persönlichen Betreuung reicht. Transparente Preise, flexible Praxisstandorte und eine Geld-zurück-Garantie zeigen: Hier geht es nicht um den schnellen Schein, sondern um nachhaltige Qualität.

Dieser Artikel beleuchtet, wie Bootsschule1 mit technischer Präzision, durchdachten Services und didaktischer Klarheit nicht nur mit alten Konventionen bricht, sondern ein neues Kapitel in der Ausbildung für Wassersportbegeisterte aufschlägt – nah am Alltag, weit entfernt vom Schulbank-Gefühl.

Moderne Lernplattform mit smarten Tools

Die digitale Bootsschule von Bootsschule1 übernimmt in Deutschland eine Vorreiterrolle, wenn es um eine moderne Bootsführerschein-Ausbildung geht. Die selbst entwickelte SmartLearn™Lernplattform bildet das Herzstück dieses Konzepts. Sie bietet über 50 Videolektionen in hochwertiger 4K-Qualität und einen MultipleChoiceFragentrainer, die den gesamten Stoff für Sportbootführerscheine strukturiert abdecken. Die Videos dauern meist zwischen drei und fünf Minuten – ideal, um Inhalte gezielt und ohne Zeitdruck zu konsumieren: Sei es unterwegs beim Pendeln, in der Mittagspause oder abends auf dem heimischen Sofa. Dieses modulare Format erlaubt es, einzelne Themen effizient zu wiederholen oder gezielt Vertiefungen abzurufen.

Doch Bootsschule1 bietet weit mehr als reine Videospots: Ein interaktiver Prüfungssimulator integriert alle 15 offiziellen Prüfungsbögen. Nutzer*innen können die komplette Prüfungssituation durchspielen, inklusive Originalfragen und zeitlicher Vorgabe – so entsteht ein realistisches Trainingserlebnis. Dieser praxisnahe Ansatz führt weg vom bloßen Auswendiglernen hin zu gezielter Vorbereitung, mit hoher Trefferquote bei der echten Prüfung. Durch regelmäßiges Simulations-Training werden Schwachstellen sichtbar und lassen sich gezielt bearbeiten – ein entscheidender Vorteil gegenüber herkömmlichen Kursformaten.

AllInclusiveAngebot statt versteckter Kosten

Ein echtes Alleinstellungsmerkmal ist das AllInclusiveVersprechen. In einer einzigen Kursbuchung sind enthalten: Lernplattform, hochwertige Lernvideos, Kursmaterialien wie Kurs und Anlegedreieck, Zirkel sowie Tampen und Klampe, dazu die praktische Ausbildung inklusive einer kostenfreien 1:1Betreuung. Ergänzt wird das Ganze durch ein freiwilliges ExkursPaket mit über 25 zusätzlichen Lektionen mit einem Gegenwert von 119 €, das Kunden gratis erhalten.

Der Preis erscheint dabei vergleichsweise günstig: Ein Kombiangebot für SBF See & Binnen kostet gerade mal 445 € statt ursprünglich 495 € – inklusive ExkursPaket. Durch Aktionen mit Rabattcodes lässt sich die Summe weiter reduzieren – ohne unerwartete Zusatzkosten. Transparenz ist hier Programm.

Risikofrei dank GeldzurückGarantie

Bootsschule1 gibt Anfängern besonderen Rückhalt: Innerhalb von 14 Tagen nach Buchung kann man bei Nichtgefallen rückabwickeln – sofern bislang keine Praxisstunde gebucht und maximal 60 % der Kursinhalte absolviert wurden. Darüber hinaus gibt es eine Garantie für den Prüfungserfolg: Wer den TheorieTeil bestanden, aber in der Praxisprüfung durchfällt, erhält anteilig die Kursgebühr zurück. Das reduziert das finanzielle Risiko und lässt den Kurs zu einer sicheren Investition werden.

Flexible praktische Ausbildung in ganz Deutschland

Ein weiterer wichtiger Aspekt, in dem Bootsschule1 überzeugt, ist der bundesweite Zugang zur praktischen Ausbildung. Mehr als 100 Prüfzentren und zahlreiche Praxispartner ermöglichen es, Theorie online zu lernen und die Bootsfahrstunden lokal zu absolvieren. Unter anderem gibt es Angebote in großen Städten wie Berlin, Hamburg oder entlang des Rheins (z.B. Bonn, Koblenz, Köln).

Praktische Einheiten dauern meist 60 Minuten und reichen oft aus, um die Fahrpraxis für die Prüfung zu erlangen. Zudem übernimmt die Plattform die Terminbuchung, Organisation und Anmeldung bei der Prüfung – der gesamte Papierkram liegt in digitaler Hand, was Zeit und Aufwand spart.

Umfangreiche Kursvarianten für jeden Bedarf

Bootsschule1 deckt sämtliche Sportbootführerscheine ab: getrennte Kurse für SBF See, SBF Binnen sowie Kombikurse See & Binnen. Darüber hinaus werden spezielle Qualifikationen angeboten, etwa das Bodenseeschifferpatent, der SRC- und UBI-Funkschein sowie Fachkundenachweise (FKN/SKN).

  • Das Bodenseeschifferpatent ist als Ergänzung zum SBF günstig kombinierbar (145 € Theorie oder Kombipreis von € 590).
  • Der SRCFunkschein wird mit gleicher SmartLearn™Plattform vorbereitet – inklusive OnlineTraining und praktischer Prüfung in einem Prüfungszentrum (127,88 € Prüfungsgebühr).

Wer nur den Funkschein machen möchte, erhält dafür bis zu 365 Tage Zugriff auf Lernmaterial und Praxisaufgaben.

Qualitativ hochwertiger Unterricht

Bootsschule1 legt klar Wert auf hohe Produktionsqualität: Einzelne Videolektionen entstehen aus bis zu 200 Stunden Rohmaterial, das anschließend mehr als 100 Stunden postproduziert und mit 3DAnimationen sowie CGIEffekten angereichert wird. Das Ergebnis ist eine visuell ansprechende und fachlich präzise Darstellung, die man in vielen herkömmlichen Kursen vergeblich sucht. Ergänzt wird das durch profunde Fahrsessions per Videochat und persönliche Unterstützungsangebote.

Medizinischer Beleg und gesundheitliche Voraussetzungen

Vor Prüfungsanmeldung ist ein ärztliches Attest nötig. Dieses umfasst Sehtest (DIN 58220, Sehschärfe ≥ 0,8), Farbunterscheidung und Hörtest. Brillenträger schaffen den Führerschein problemlos – die Vermerkpflicht auf der Fahrerlaubnis ist im Einklang mit Vorschriften. Empfehlenswert ist es, frühzeitig die optionalen Testangebote bei Optikern zu nutzen, um die ärztliche Bescheinigung vorzubereiten.

Prüfung mit digitaler Unterstützung

Bootsschule1 nimmt Interessierten den bürokratischen Aufwand ab: Prüfterminbuchung, Anmeldeunterlagen und Zertifikatrecherche übernimmt das Team. Nach Bestehen der Prüfung erreicht man den Führerschein binnen zwei Wochen bequem per Post. Wer beim ersten Mal nicht besteht, kann Theorie und Praxis beliebig oft wiederholen – zusätzliche Kosten entstehen nur durch behördliche Prüfungsgebühren.

Fazit

Bootsschule1 präsentiert ein Konzept, bei dem Technik und didaktischer Anspruch eng miteinander verbunden sind: Die Lernplattform mit qualitativ hochwertigen Videos, Prüfungssimulationen und smartem Fragebetrieb bildet das Rückgrat der Ausbildung. Zeitgleich liefern AllInclusivePakete inklusive 1:1Betreuung, bundesweite Praxis sowie Garantien echte Mehrwerte.

In einer Zeit, in der Flexibilität und Qualität gefragt sind, liefert Bootsschule1 eine Antwort auf praktische Herausforderungen. Es ist kein theoretisches Referenzmodell, sondern ein funktionierendes System, das vielen den Zugang zum Wassersport erleichtert – und dabei ganz klar zeigt, wie moderne Bildung in der Praxis aussehen kann. Somit liefert der Anbieter im Sportbootbereich das, was bei Autofahrschulen schon länger Realität ist.

Circunomics startet eigenes Batterie-Testlabor

Die Circunomics-Gründer Felix Wagner und Jan Born haben sich das Ziel gesetzt, eine zirkuläre Batteriewirtschaft zu etablieren, indem sie einen digitalen Marktplatz für den Second-Life-Einsatz und das Recycling gebrauchter Batterien bieten. Mit der Einrichtung des eigenen Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort.

„Die Kreislaufwirtschaft ist in Zukunft von immer größerer Bedeutung. Dies ist für uns die große Chance, mit dem digitalen Marktplatz für gebrauchte Batterien, Module und Zellen eine herausragende Position einzunehmen“, sagt Felix Wagner, Co-Founder und CEO von Circunomics. „Im Jahr 2030 werden alleine im Automobilsektor zwischen 200 und 300 Millionen Elektrofahrzeuge auf den Straßen der Welt unterwegs sein. Das bedeutet, dass dann jedes Jahr etwa sechs Millionen gebrauchte Batterien als Rückläufer aus Altfahrzeugen auf den Markt kommen. Diese wiederzuverwenden oder gezielt zu recyclen ist eine Mega-Aufgabe, die gelöst werden muss. Schließlich haben wir alle ein Ziel: Weniger CO2 zu produzieren und weniger der wertvollen, seltenen Rohstoffe zu verbrauchen.“

Battery Lifecycle Management Solution

Die Ergebnisse KI-basierter Analysen von gebrauchten Batterien, die beispielsweise in elektrischen Fahrzeugen verwendet werden, mit selbst ermittelten Laborwerten aus einer Real-Life-Simulation abgleichen, trainieren und verifizieren: Das ist die Aufgabe des neuen Batterie-Testlabors, das vom Start-up Circunomics in Roßdorf bei Darmstadt eingerichtet wurde und jetzt seinen Betrieb vollumfänglich aufgenommen hat.

Die 2019 gegründete Circunomics GmbH ist damit in der Lage, eine Datenbasis für die selbst entwickelte Software aufzubauen, die wiederum genutzt wird, um den Gesundheitszustand (State of Health) einer gebrauchten Batterie während und nach einer Erstverwendung (First Life) sehr präzise zu ermitteln. Vielmehr aber kann detailliert simuliert und hochgerechnet werden, wie sich die gebrauchte Batterie bei einer Zweitverwendung (Second Life) zum Beispiel in einem stationären Speichersystem verhält. Zudem kann eine Empfehlung ausgesprochen werden, welche Batterien für das jeweilige Projekt am besten geeignet sind.

Mit der Einrichtung des Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort, die nach einer erfolgreich durchgeführten Series-A-Finanzierungsrunde möglich ist. Zu Jahresbeginn 2025 hatte Circunomics von Investor*innen über acht Millionen Euro erhalten.

Real-Life-Simulation im Testlabor

Im neuen Batterie-Testlabor in Roßdorf können je nach Bedarf und Programm verschiedene Zellen gleichzeitig in einer sicher abgeschirmten Prüfeinrichtung untergebracht und unterschiedlichsten Belastungen ausgesetzt werden. Es erfolgt eine umfangreiche Real-Life-Simulation täglicher Batterienutzungssituationen beispielsweise in einem Elektrofahrzeug: Schnell oder langsam aufeinander folgende Ladezyklen, unterschiedliche Ladestromstärken mit bis zu 300 Ampere Gleichstrom, verschiedene Degradierungszustände der Batterie und das Ganze – wenn notwendig – bei unterschiedlichen Temperaturen. Möglich ist eine Temperaturspanne von minus 20 bis plus 60 Grad Celsius. Die jeweiligen Tests der Zellen können über einen kurzen, mittleren oder längeren Zeitraum durchgeführt werden. Das können wenige Tage, Wochen und Monate, aber auch bis zu zwei Jahre sein.

„Bisher haben wir die Zellen von einem externen Dienstleister analysieren lassen. Diese Aufgaben nehmen wir jetzt selbst in die Hand, erhöhen damit unsere Effizienz, sind schneller mit dem Abgleich von Daten, wodurch wir in der Lage sind, unsere Simulationen und Hochrechnungen für eine Verwendung im Second Life noch genauer und zuverlässiger anbieten zu können“, erklärt Jan Born, Co-Founder und CTO von Circunomics. Und ergänzt: „Wir haben einerseits Millionen von Daten, die während des First Life einer Batterie gesammelt werden und die uns zur Verfügung gestellt werden. Auf dieser Basis haben wir bisher mit der KI-unterstützten Software am Computer analysiert, was die gebrauchte Batterie noch im Stande ist, im Second Life zu leisten, bevor sie dann endgültig dem Recycling zugeführt wird. Im neuen Labor und mit den eigenen Analysen sehen wir nun, wie sich eine Zelle im simulierten Batterieleben verhält und wir können die dabei ermittelten Ergebnisse, mit denen aus der Software abgleichen und verifizieren.“

KI-Übergangsphase: Fluch und Segen

Zwischen Wundermaschine und Blackbox – Warum wir gerade in einer KI-Übergangsphase leben und was das generell für das Marketing bedeutet.

Künstliche Intelligenz (KI) verändert gerade in rasantem Tempo unsere Welt. Sie automatisiert Prozesse, entlastet Teams, liefert Analysen in Echtzeit und ermöglicht einen bisher nicht gekannten Grad an Personalisierung. Wer heute im Marketing arbeitet, kommt an KI nicht mehr vorbei – sei es beim Texten von Werbebotschaften, beim Targeting, in der Bildgenerierung oder der Erfolgsmessung.

KI verspricht Effizienz, Präzision und neue kreative Möglichkeiten. Doch die Euphorie wird zunehmend begleitet von einer neuen, ernüchternden Erfahrung: Künstliche Intelligenz kann auch Nutzererlebnisse verschlechtern, Prozesse intransparent machen – oder gar ganze Geschäftsmodelle gefährden. Der technologische Fortschritt ist zweifellos da, doch gesellschaftlich, wirtschaftlich und kulturell befinden wir uns noch mitten in einer Übergangsphase. Und das birgt Risiken – nicht nur für Plattformen, sondern auch für Unternehmen, die sie nutzen.

Beispiel Pinterest: Wenn der Algorithmus plötzlich entscheidet

Ein aktuelles Beispiel liefert Pinterest: Die visuelle Such- und Inspirationsplattform setzt verstärkt auf KI, um Inhalte effizient zu kategorisieren, Hassrede zu erkennen, urheberrechtlich geschützte Werke zu markieren oder Spam zu unterbinden. Was auf dem Papier sinnvoll und zukunftsgerichtet klingt – ein moderner „Content Safety Stack“ mit automatisierter Moderation –, hat in der Praxis zahlreiche Creator*innen und Unternehmen auf dem falschen Fuß erwischt.

Accounts wurden gelöscht, Pins blockiert oder ganze Seiten unsichtbar gemacht – oft ohne erkennbare Begründung. Was ist passiert? Die KI-Modelle bei Pinterest wurden darauf trainiert, problematische Inhalte automatisiert zu erkennen und Plattformregeln durchzusetzen. Doch wie in vielen KI-Systemen liegt der Teufel im Detail: Die Modelle sind noch nicht präzise genug, um zwischen legitimen und grenzwertigen Inhalten zuverlässig zu unterscheiden – vor allem in einem visuellen Umfeld wie Pinterest. Besonders problematisch wird es, wenn Nutzer*innen keine Möglichkeit haben, die Entscheidungen nachzuvollziehen oder effektiv dagegen vorzugehen.

Für Unternehmen, die Pinterest als Marketingplattform nutzen, ist das ein unkalkulierbares Risiko. Wer auf Sichtbarkeit und Reichweite angewiesen ist, kann es sich kaum leisten, dass automatisierte Systeme ohne Vorwarnung Inhalte sperren. Der Vertrauensschaden ist enorm.

Im Spannungsfeld der KI-Nutzung

Dieser Fall steht exemplarisch für ein zentrales Spannungsfeld der KI-Nutzung: Auf der einen Seite die große Hoffnung auf Automatisierung, Kostenersparnis und Kontrolle – auf der anderen Seite die Realität einer noch nicht vollständig ausgereiften Technologie, die häufig wie eine Blackbox agiert. Für Nutzer*innen bedeutet das: weniger Transparenz, weniger Kontrolle, mehr Frustration. Ähnliche Phänomene beobachten wir auch bei großen Social-Media-Plattformen wie Meta oder TikTok. Auch hier sorgen KI-basierte Moderationssysteme regelmäßig für Unmut – sei es durch falsch erkannte Verstöße, Einschränkungen der Reichweite oder Verzögerungen im Kundenservice, der durch automatisierte Antworten ersetzt wurde. Dabei geht es nicht um generelle Ablehnung von KI – sondern um die Art und Weise, wie sie implementiert und kommuniziert wird.

Gute KI ist unsichtbar – weil sie funktioniert

Das Marketing der Zukunft soll nicht nur effizient, sondern muss auch verantwortungsvoll sein. Es wird davon abhängen, wie gut Unternehmen die Balance finden zwischen Automatisierung und menschlicher Kontrolle. Zwischen der Verlockung, Prozesse zu beschleunigen, und der Notwendigkeit, Vertrauen zu erhalten. Gute KI ist unsichtbar – weil sie funktioniert. Sie analysiert, aber entscheidet nicht alleine. Zukunftsfähiges Marketing ist also geprägt von einer Kombination aus technologischer Intelligenz und menschlicher Relevanz. KI, Automatisierung und Datenanalyse ermöglichen eine bisher unerreichte Präzision: Zielgruppen werden individueller angesprochen, Inhalte in Echtzeit ausgespielt und Customer Journeys automatisiert optimiert. Personalisierung ist dabei kein Zusatz mehr, sondern Standard.

Gleichzeitig verändern sich die Erwartungen der Konsument*innen: Sie wollen authentische Marken, klare Haltung, Datenschutz und echte Mehrwerte – keine leeren Werbeversprechen. Deshalb wird Marketing künftig nicht nur effizient, sondern auch ethisch und wertebasiert sein müssen. Vertrauen wird zur zentralen Währung. Auch deshalb ist das Marketing der Zukunft vor allem Inhouse zu verorten. Agenturen befinden sich auf dem absteigenden Ast – sie sind teuer und liefern nicht die Ergebnisse, die Unternehmen und Marken wirklich benötigen. Zu dieser Entwicklung gehört auch, dass Inhouse-Marketing-Verantwortliche umfassend geschult werden müssen, damit sich der Einsatz von KI maximal einfach gestaltet und gleichzeitig äußerst produktiv ist.

KI ist weder Fluch noch Segen – sie ist ein mächtiges Werkzeug, das mit Bedacht eingesetzt werden muss. Wer KI einfach laufen lässt, riskiert Vertrauensverluste. Wer sie aber erklärt, einbettet und begleitet, kann gewinnen – an Effizienz, Qualität und Glaubwürdigkeit. Das Marketing der Zukunft ist nicht einfach KI-gesteuert. Es ist menschenzentriert – mit KI als starkem, aber verantwortungsbewusstem Assistenten.

Der Autor Bastian Sens gründete Sensational Marketing im Jahr 2010 – zunächst als klassische Onlinemarketing-Agentur. Im Laufe der Jahre kristallisierte sich jedoch ein alternativer Weg heraus, sodass sich das Unternehmen zu einer Onlinemarketing-Academy wandelte.