Trends zur Handy-Nutzung: So tickt die Gen Z und Y


44 likes

Nicht nur für die Zielgruppenansprache im Jahr 2023 gut zu wissen: „Generation 9:16“ - Was passiert auf den Handys der Gen Z und Gen Y?

Diese Frage stellen sich nicht nur Social Media Professionals, sondern auch Werbetreibende aus nahezu allen Branchen. Und wie unterscheiden sich Gen Z (aktuell 14 bis 25 Jahre alt) und Gen Y (aktuell 26 bis 37 Jahre alt) eigentlich in der Nutzungsweise? Gibt es überhaupt gravierende Unterschiede? Wofür wird “dieses” TikTok überhaupt verwendet? Eine gemeinsame Studie der 9:16-Agentur WeCreate und dem Marktforschungsinstitut Appinio bringt Licht ins Dunkle und erklärt, wo welche Generation auf ihrem Handy surft – und aus welchen Gründen.

Egal ob Gen Z oder Gen Y: Das Smartphone hat alle anderen Geräte und Medien weit abgehängt und das beliebteste Format sind Videos im Hochkantformat 9:16. Aus diesem Grund werdendie beiden Generationen gern als “Generation 9:16” zusammengefasst. 80 Prozent der Generation 9:16 sind täglich mindestens drei Stunden am Tag am Smartphone. Jeder Dritte aus der Generation Z und Generation Y verbringt mehr als 6 Stunden am Smartphone. Ein Fünftel dieser Zeit wiederum wird allein auf TikTok verbracht. Unterschiede in der Nutzungsdauer zeigen sich hier eher zwischen den Geschlechtern als zwischen den Generationen. So sind deutlich mehr Frauen “Heavy User” als Männer.

Die wichtigste Plattform ist dabei Youtube - so nutzen 98 Prozent der 14- bis 37-Jährigen den Videokanal. Gen Y steht noch ein bisschen mehr auf die Plattform und verbringt 22 Prozent der Screentime auf Youtube, während es bei Gen Z 19 Prozent sind. Auch die Social-Media-Plattform Instagram kommt in beiden Generationen sehr gut an und verbraucht zu 19 Prozent in der Gen Y und zu 16 Prozent die Screentime der Gen Z. Doch ab diesem Zeitpunkt verändert sich die Nutzungsweise der Generationen.

Macht TikTok süchtig? Vielleicht!

Während die Generation Y 23 Prozent und damit den größten Anteil ihrer Zeit in Apps wie Whatsapp, Facebook oder einem Browser verbringt, führt mit 22 Prozent Screentime die chinesische Plattform TikTok das Interesse der Gen Z an. Außerdem wird sichtbar, dass TikTok die Bildschirmzeit nach oben treibt: Mit jeder Stunde mehr Screentime wächst der TikTok Anteil – unabhängig vom Alter. Sind Nutzer*innen unter einer Stunde am Smartphone, liegt er bei neun Prozent. Bei über sechs Stunden sind es 22 Prozent. Der Einfluss der Plattform lässt sich folgendermaßen beschreiben: Die erst 2018 gegründete Plattform ist nur vier Jahre später bereits die populärste bei den 14- bis 25-Jährigen. Das zeigt, wie schnell das Hochkantformat das beliebteste wurde innerhalb der jungen Audiences und untermalt die Ablösung des TVs durch Smartphone und Tablets.

Welcher Content funktioniert?

Beide Generationen zeigen, dass sie Plattformpräferenzen haben, je nachdem, nach welcher Art von Content sie suchen. Suchen sie nach edukativem Content, nutzen 54 Prozent der Gen Z und 50 Prozent der Gen Y Youtube. Soll es inspirativ sein, besuchen beide Generationen in erster Linie Instagram (37 Prozent Gen Z, 38 Prozent Gen Y) - nur unterhaltsamer Content spaltet die Generationen. Während mehr als die Hälfte (53 Prozent) der Gen Z auf TikTok nach Unterhaltung sucht, setzt die Gen Y zu 48 Prozent auf Youtube.

Weitere Highlights der Studie

Mit welcher Motivation welches Medium von Gen Z und Gen Y genutzt wird. Außerdem wird aufgezeigt, welche Plattform am meisten Kaufkraft hat, wofür die 9:16 Plattformen, also Youtube, TikTok, Snapchat und Instagram, tatsächlich genutzt werden - und zu welcher Tageszeit welches Plattform-Verhalten dominiert. Die vollständige Studie gibt es hier.

Diese Artikel könnten Sie auch interessieren:

Verkaufen ohne Shop: Zahlungen erhalten mit PayPal Open

Sie verkaufen digitale Kunst, Online-Kurse oder Handgemachtes? Dafür ist ein Shop nicht zwingend nötig. Mit Zahlungslinks und Kaufen-Buttons von PayPal erhalten Sie Ihre Zahlungen, wo die Verkäufe entstehen – schnell, sicher und unkompliziert.

Zahlungen empfangen, wo Ihre Community ist

Viele Soloselbständige nutzen Social Media, E-Mails oder Messenger nicht nur zur Kommunikation, sondern auch zur Vermarktung ihrer Produkte. Mit den passenden Tools können sie dort zusätzlich direkt Zahlungen empfangen – ganz ohne Onlineshop oder technisches Setup.

PayPal Open bietet drei flexible Möglichkeiten, Zahlungen zu erhalten:

  • Zahlungslinks, die schnell geteilt werden können, etwa per E-Mail, DM, Post oder QR-Code.
  • Kaufen-Buttons, die sich in eine bestehende Seite integrieren lassen, zum Beispiel in ein Link-in-Bio-Tool oder eine Landingpage.
  • Tap to Pay macht Ihr Smartphone zum Zahlungsterminal (kompatibles Smartphone vorausgesetzt).

Alle Varianten funktionieren schnell, mobiloptimiert und bieten eine vertraute Nutzererfahrung. Damit wird der Ort, an dem Interesse entsteht, direkt zum Verkaufsort.

Zahlungslinks: Vom Post zur Bezahlung in Sekunden

Ein Kauf beginnt nicht im Warenkorb, sondern dort, wo Interesse entsteht: in einem Post, einer Story oder einer E-Mail. Genau hier setzen Zahlungslinks von PayPal an: Sie führen direkt von der Produktinfo zur Zahlung, ohne Umwege über externe Plattformen.

Das ist besonders hilfreich bei:

  • digitalen Produkten
  • E-Book-, Kurs- oder Software-Verkäufen
  • (Online-)Vorbestellungen oder Trinkgeld-Modellen

Ein Zahlungslink erzeugt eine eigene Bezahlseite mit Titel, Preis, Beschreibung und Produktbild. Varianten wie Größen oder Farben sind ebenso integrierbar wie frei wählbare Preise. Versandkosten und Steuern können automatisch berechnet werden.

Der fertige Zahlunglink lässt sich flexibel teilen: per Messenger, E-Mail, Social Media oder als QR-Code auf einem Produktetikett oder Tischaufsteller. Die Zahlungsseite unterstützt gängige Zahlarten wie Kreditkarte, Wallets sowie ausgewählte regionale Methoden wie SEPA-Lastschrift, iDEAL oder Swish – je nach Land und Verfügbarkeit für die jeweiligen Käufer:innen.

Besonders praktisch: Ihre Kund:innen brauchen dafür kein eigenes PayPal-Konto. So können Zahlungen sicher und bequem online abgewickelt werden.

Für Selbständige, die regelmäßig digitale Inhalte verkaufen, ist das eine einfache Möglichkeit, Zahlungen mit PayPal zu empfangen, ohne ein klassisches Shopsystem aufsetzen zu müssen.

Kaufen-Buttons: Ihre Seite wird zur Verkaufsfläche

Wer bereits eine Website oder ein Link-in-Bio-Tool nutzt, kann PayPals Warenkorb- oder Kaufen-Buttons mit wenigen Zeilen Code integrieren. Damit verwandeln Sie eine einfache Landingpage in eine funktionale Verkaufsfläche. Sie erstellen den Button in Ihrem PayPal-Konto und erhalten automatisch den passenden HTML-Code, der nur noch kopiert und in die Website eingefügt wird. Kund:innen klicken, zahlen mit ihrer bevorzugten Methode und der Betrag wird direkt gutgeschrieben.

Sie behalten die volle Kontrolle über Ihre Gestaltung, Storytelling und Nutzerführung und profitieren gleichzeitig von einem verlässlichen Check-out, der hilft Vertrauen zu schaffen. Eine schlanke Lösung für alle, die ihr Angebot online präsentieren und Zahlungen direkt abwickeln möchten.

Mit Tap to Pay ganz einfach vor Ort verkaufen

Neben den digitalen Optionen können Sie auch vor Ort Zahlungen annehmen: direkt über Ihr Smartphone. Mit der PayPal-Funktion „Tap to Pay“ akzeptieren Sie kontaktlose Zahlungen per Karte oder Wallet ohne separates Kartenlesegerät. Alles, was Sie benötigen, ist ein kompatibles iPhone oder Android-Gerät mit NFC-Funktion (Tap to Pay funktioniert auf Geräten mit Android 8.0, NFC-Funktionen und Google Play Services. iOS ab iPhone XS und höher).

Besonders praktisch ist das beispielsweise für:

  • Märkte, Pop-up-Stores
  • Workshops und Live-Events
  • Verkäufe im kleinen Rahmen, bei denen Flexibilität zählt

KI erfolgreich industrialisieren

Warum 95 Prozent der KI-Pilotprojekte scheitern – und wie du deine Chancen erhöhst, zu den erfolgreichen fünf Prozent zu gehören.

Künstliche Intelligenz ist in der Industrie angekommen, doch zwischen Anspruch und Wirklichkeit klafft oft eine Lücke. Eine aktuelle Untersuchung des MIT - Massachusetts Institute of Technology („The GenAI Divide“) zeigt: Nur fünf Prozent der KI-Pilotprojekte schaffen tatsächlich den Sprung in die produktive Anwendung. Diese „Pilot-to-Production“-Falle ist eines der größten Risiken für Industrieunternehmen heute.

Der feine Unterschied

GenAI ist keine Produktions-KI Oft werden Äpfel mit Birnen verglichen. Generative KI (GenAI) ist fantastisch für kreative Aufgaben und Chatbots, scheitert aber oft an der Verlässlichkeit, die in der Produktion nötig ist. Industrietaugliche „Produktions-KI“ hingegen muss anders funktionieren: Sie lernt aus Maschinendaten, erkennt Zusammenhänge in Echtzeit und muss absolut robust laufen.

Besonders in der Kunststoffverarbeitung, etwa bei schwankenden Recyclingmaterialien oder Verschleiß, spielt Produktions-KI ihre Stärken aus: Sie gibt den Mitarbeitenden an der Maschine konkrete Handlungsempfehlungen, statt nur Daten zu sammeln.

Faktor Mensch und Organisation

Das MIT fand heraus: Technik ist selten das Problem. Es sind die organisatorischen Hürden. Unternehmen, die sich externe Expertise und spezialisierte Software-Partner ins Haus holen, verdoppeln ihre Chance, KI-Projekte erfolgreich in den Regelbetrieb zu überführen. Es geht darum, Fachwissen mit Technologie zu verheiraten.

Wie gelingt der Transfer in den Shopfloor?

  • Fokus statt Gießkanne: Identifiziere konkrete Probleme (z.B. Anfahrausschuss) und priorisiere diese nach wirtschaftlichem Mehrwert.
  • Integration planen: KI darf keine Insel sein. Die Anbindung an IT- und OT-Systeme muss von Anfang an stehen.
  • Externe Power nutzen: Setze auf Partner, die deine Industrie verstehen, um die Kinderkrankheiten von Pilotprojekten zu vermeiden.
  • Skalierung: Starte fokussiert, miss den Erfolg anhand harter Kennzahlen (OEE, Ausschussrate) und rolle sodann funktionierende Lösungen breit aus.

Fazit

Wer KI nicht als IT-Projekt, sondern als Werkzeug für den Shopfloor begreift und strategisch implementiert, sichert sich echte Wettbewerbsvorteile.

Die Autorin Dr. Louisa Desel ist Mitgründerin und CEO der OSPHIM GmbH. Das 2024 gegründete Unternehmen entwickelt spezialisierte KI-Lösungen für die Kunststoffindustrie.

to teach: Vom KI-Hype zur Schulinfrastruktur

Wie das 2022 gegründete EdTech to teach die Lücke zwischen Chatbot und Klassenzimmer schließt.

Vor drei Jahren begann mit dem öffentlichen Zugang zu generativer künstlicher Intelligenz ein weltweiter Hype, der auch vor den Schultoren nicht haltmachte. Doch im Bildungsmarkt entscheidet sich derzeit, ob die Technologie tatsächlich Produktivität schafft oder in einer digitalen Sackgasse endet. Das Hamburger EdTech to teach liefert hierzu eine Blaupause: Was 2022 als Experiment begann, hat sich innerhalb von drei Jahren zu einer Arbeitsplattform für hunderttausende Lehrkräfte entwickelt.

Das Problem: US-Tools verstehen deutsche Schulen nicht

Als generative KI erstmals verfügbar wurde, wirkte ihr Einsatz im Bildungsbereich naheliegend. Doch der Blick auf die internationale Konkurrenz zeigt das Dilemma: Während US-Platzhirsche wie MagicSchool AI oder Diffit den Markt mit hunderten Mikro-Tools fluten und technisch beeindrucken, fehlt ihnen der kulturelle Fit. „Einfach nur Texte aus ChatGPT zu kopieren, löst kein einziges Problem von Lehrkräften“, erklärt Felix Weiß, Co-Founder und CEO von to teach.

Die Diskrepanz zwischen dem Versprechen der KI und dem tatsächlichen Schulalltag war groß. US-Lösungen scheitern oft an spezifischen deutschen Lehrplänen oder liefern reine Multiple-Choice-Formate, die hierzulande kaum Anwendung finden. Lehrkräfte benötigten keine unstrukturierten Textwüsten, sondern didaktisch saubere, lehrplankonforme und sofort einsetzbare Materialien. Genau hier setzte das 2022 von Felix Weiß und Marius Lindenmeier gegründete Unternehmen an.

Der Pivot: Datenschutz als Burggraben

Der entscheidende Wendepunkt kam 2023. Das Start-up vollzog einen Strategiewechsel (Pivot) weg von einer SaaS-Lösung für Verlage hin zu einer direkten Plattform für Lehrkräfte. Anstatt Nutzer*innen mit freien Eingabefeldern (Prompts) allein zu lassen, entwickelte das Team feste Arbeitsblattvorlagen. Dies wurde zum entscheidenden Wettbewerbsvorteil gegenüber internationalen Anbietern: Während diese oft an der strikten DSGVO scheitern, bietet to teach durch Serverstandorte in der EU und Rechtssicherheit eine Lösung, die Schulträger akzeptieren.

Dabei mussten technische Kinderkrankheiten überwunden werden: Frühe KI-Modelle „halluzinierten“ Fakten. To teach reagierte mit der systematischen Integration von Quellen und profitierte zugleich von der rasanten Evolution der Sprachmodelle.

Skalierung im Ökosystem gegen nationale Konkurrenz

Der Markt nahm die Lösung schnell an: Im Januar 2023 meldete sich der erste Nutzer an, bis Ende des Jahres waren es laut Unternehmen bereits knapp 16.000 Lehrkräfte. Das Jahr 2024 markierte dann den Übergang vom Start-up zur Plattform: Durch die Übernahme von fobizz (101skills GmbH) wurde to teach Teil eines größeren Bildungsökosystems. Die Gründer blieben als Geschäftsführer an Bord.

Dieser Schritt war strategisch überlebenswichtig in einem sich konsolidierenden Markt. Einerseits gegenüber agilen Herausforderern, da Konkurrenten wie schulKI, Teachino, KIULY oder Kuraplan zum Teil aggressiv um Landeslizenzen kämpfen bzw. auf dem Markt für KI-gestützte Unterrichtsplanung und Materialerstellung durchgestartet sind.

Andererseits war der Schritte in Hinblick auf etablierte Verlage notwendig. Denn Häuser wie Cornelsen ziehen inzwischen mit eigenen KI-Assistenten nach, sperren ihre Inhalte jedoch oft in geschlossene Systeme, d.h. binden sie oft an die eigenen Verlagswerke.

Durch die erfolgreiche Integration in fobizz ist to teach kein isoliertes Insel-Tool mehr, sondern profitiert von bestehenden Landesrahmenverträgen und einem riesigen Vertriebsnetz. Die Nutzer*innenzahlen explodierten förmlich auf über 140.000 Lehrkräfte bis Ende 2024, so die Angaben von to teach.

Status Quo 2025: KI als neue Infrastruktur

Heute, im dritten Jahr nach der Gründung, hat sich der Fokus erneut verschoben. To teach versteht sich inzwischen als Arbeitsinfrastruktur. Die Zahlen unterstreichen diesen Anspruch: Nach Angaben von to teach nutzen über 300.000 Lehrkräfte die Plattform, und mehr als 4.000 Schulen sind angebunden. Das bedeutet: Millionen von Inhalten wurden so bereits KI-gestützt vorbereitet.

Das Unternehmen treibt nun den systematischen Schulvertrieb voran. Damit beweisen EdTechs wie to teach, dass sich Qualität und Personalisierung im sonst oft als innovationsresistent geltenden Bildungsmarkt skalieren lassen.

Für CEO Felix Weiß ist die Diskussion über das „Ob“ längst beendet: „Die Frage ist nicht mehr, ob KI im Klassenzimmer ankommt, sondern, wie und auf welche Weise sie dort wirklich hilft.“

Optocycle: Bauschutt-Recycling auf KI-Basis

Die Optocycle-Gründer Max-Frederick Gerken und Lars Wolff Optocycle zeigen, wie aus Bauschutt neuer Rohstoff wird und erhalten dafür eine Förderung der Deutschen Bundesstiftung Umwelt (DBU).

Jährlich fallen in Deutschland laut Umweltbundesamt rund 86 Mio. Tonnen Schutt und Abfälle auf Baustellen an. Häufig landen diese Materialien auf Deponien. So gehen allerdings wertvolle Ressourcen verloren. Der Ausweg: Ein hochqualitatives Recycling des Schutts vermeidet klimaschädliche Emissionen und hält wertvolle Materialien im Wertstoffkreislauf – und das bei zertifiziert gleichwertiger Qualität.

Um das Recycling von Material im Bausektor zu automatisieren, entwickelt das 2022 von Max-Frederick Gerken und Lars Wolff gegründete Start-up Optocycle aus Tübingen ein System auf Grundlage künstlicher Intelligenz (KI) zum Echtzeit-Monitoring.

Echtzeit-Monitoring im Recycling-Prozess

Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt mit rund 170.000 Euro. Im Rahmen der DBU-Green Startup-Förderung haben die Gründer ein KI-basiertes System zur automatischen, reproduzierbaren Klassifizierung von Bauabfällen entwickelt. Darauf aufbauend soll nun ein Prototyp das Echtzeit-Monitoring von RC-Körnungen – also recycelten Gesteinskörnungen aus Bauschutt – ermöglichen.

 „Aktuell basiert in der Branche der Aufbereitungsprozess von Bauschutt meist auf subjektiven Schätzungen“, so Max-Frederick Gerken.  Auch das Endprodukt werde nur stichprobenartig im Labor überprüft. Mit dem System sei „Echtzeitmonitoring von Recycling-Gesteinskörnungen möglich. Somit können die Qualität der Körnung verbessert und mehr Material in die Beton-Produktion überführt werden“, so Gerken.

Die Qualität von Sekundärrohstoffen verbessern

Das System kombiniert laut Gerken moderne, optische Sensorik mit KI – und löse so ein altbekanntes Problem in der Baubranche. „Zurzeit schwankt oft die Beschaffenheit der recycelten Rohstoffe. Das bedeutet einerseits ein wirtschaftliches Risiko für Unternehmen und führt andererseits zum Verlust von wertvollen Materialien“, so Gerken. Optocycle erwartet mithilfe seiner Entwicklung eine 20 Prozent höhere Menge an recycelten, hochqualitativen Gesteinskörnungen sowie 15 Prozent geringere Abfallreste, die sonst auf Deponien landen würden. Dazu werden nach Gerkens Angaben sowohl der eingehende Schutt „optimal klassifiziert“ als auch das Ergebnis transparent überprüft. Kooperationspartner ist hierbei die Heinrich Feeß GmbH, die laut Gerken bereits seit vielen Jahren mit Optocycle zusammenarbeitet. Der Mitgründer weiter: „Die Technologie leistet einen Beitrag für Kreislaufwirtschaft im Bauwesen. Wir helfen dabei, die Qualität von Sekundärrohstoffen zu verbessern, die aus dem Bauschutt gewonnen werden. Diese Lösung lässt sich zudem perspektivisch auf alle Abfallströme übertragen."

Das System von Optocycle kann Gerken zufolge direkt in bereits bestehende Anlagen zur Verarbeitung von Bauabfällen installiert werden – „direkt über dem Fließband.“ Diese einfache Nachrüstung spare Kosten und ermögliche die schnelle Umsetzung eines innovativen Bauschutt-Recyclings. „Denn nur wenn das Recycling finanziell machbar ist, kann die Kreislaufwirtschaft in der Baubranche Erfolg haben“, so Gerken.

Kreislaufwirtschaft in der Baubranche ist aktiver Klimaschutz

Kreislaufwirtschaft in der Baubranche hat nach den Worten des zuständigen DBU-Referenten Dr. Volker Berding wichtige Effekte für den Klimaschutz: „Die Produktion von immer neuem Beton sorgt für hohen Ausstoß von klimaschädlichen Treibhausgasen.“ Einer WWF-Studie zufolge entstehen bei der Herstellung von Zement – dem wichtigsten Bestandteil von Beton – acht Prozent der gesamten globalen Treibhausgasemissionen. Berding: „Alles, was zur einer Emissionsreduzierung beiträgt, hat also bereits einen großen Effekt für den Klimaschutz.“ Eine Kreislaufwirtschaft funktioniere jedoch nur, „wenn die Sekundärrohstoffe sich qualitativ nicht von einer Neuproduktion unterscheiden. Genau diesen Schritt kann Optocycle mit einem skalierbaren, optimierten Prototypen gehen.“

Report: Inside Germany’s EnergyTech Market

Aktuelle Ein- und Ausblicke für Gründer*innen und Start-ups im EnergyTech-Markt.

EnergyTech gehört in Deutschland zu den spannendsten, aber auch herausforderndsten Märkten für Gründer*innen. Die Kombination aus technologischer Innovation, wirtschaftlichem Potenzial und der Dringlichkeit, das Energiesystem klimaneutral zu gestalten, schafft enorme Chancen. Gleichzeitig ist die Eintrittsbarriere hoch, denn der deutsche Energiemarkt ist einer der komplexesten und am stärksten regulierten weltweit.

Laut der Internationalen Energieagentur werden im Jahr 2025 weltweit rund 2,1 Billionen Euro in saubere Energien investiert. Damit übertreffen die Investitionen in erneuerbare Energien erstmals die in fossile Brennstoffe deutlich. Deutschland spielt dabei eine zentrale Rolle, denn kein anderes Land in Europa verfügt über eine vergleichbare Durchdringung mit erneuerbaren Energien. Diese Vorreiterrolle macht den Markt attraktiv, aber auch kompliziert.

Gründer*innen, die in diesem Umfeld aktiv werden, müssen verstehen, dass Erfolg hier weniger von reiner Technologie abhängt, sondern von der Fähigkeit, sich in einem vielschichtigen System aus Regularien, Netzstrukturen und politischen Rahmenbedingungen zu bewegen. Es reicht nicht, eine gute Idee zu haben. Entscheidend ist, wie diese Idee in ein System passt, das auf Stabilität, Versorgungssicherheit und langfristige Planung ausgelegt ist.

Deutschlands Energiemarkt zwischen Stabilität und Veränderung

Der deutsche Energiemarkt gilt als hoch reguliert, gleichzeitig aber auch als offen für neue Akteur*innen. Wer hier tätig werden will, findet klar definierte Wege, um als Energieversorger*in zugelassen zu werden. Doch der Weg dorthin ist gesäumt von Genehmigungen, Netzanschlussverfahren und Förderbedingungen.

Die Stabilität des Systems steht über allem. Jede Veränderung im Netz kann weitreichende Folgen haben, weshalb die Regulierung streng überwacht wird. Netzbetreiber*innen müssen ständig das Gleichgewicht zwischen Erzeugung und Verbrauch sichern, um Versorgungsstörungen zu vermeiden. Das führt dazu, dass Innovationen nur schrittweise eingeführt werden können.

Hinzu kommt die dezentrale Struktur des Energiesystems. Deutschland hat den Umbau seiner Energieversorgung regional organisiert, was zu einer Vielzahl von kleinen Akteur*innen führt. Ob Solaranlagen auf Privathäusern, Windparks in ländlichen Regionen oder Batteriespeicher in Städten, alle müssen an das öffentliche Netz angeschlossen werden. Dieses Netz ist die Lebensader des Systems, aber gleichzeitig ein Flaschenhals. Jede neue Installation benötigt einen Netzanschluss, und die Wartezeit kann sich über mehrere Jahre erstrecken.

Diese Verzögerungen sind eine der größten Herausforderungen für Start-ups. Klassische Wachstumsmodelle, die auf schnelle Skalierung ausgelegt sind, stoßen hier an ihre Grenzen. Gründer*innen müssen lernen, mit langen Planungszeiträumen zu arbeiten und ihre Finanzierungsstrategie darauf abzustimmen. Softwarelösungen können helfen, Prozesse zu vereinheitlichen und Transparenz zu schaffen. Doch auch hier gilt: Der deutsche Markt lässt sich nicht einfach durch Technologie beschleunigen. Erfolg entsteht durch Anpassungsfähigkeit, Vertrauen und Systemverständnis.

Innovation im System statt Disruption von außen

Viele Start-ups treten mit dem Ziel an, Märkte zu verändern oder bestehende Strukturen zu durchbrechen. In der Energiebranche stößt dieser Ansatz jedoch schnell an seine Grenzen. Das Energiesystem ist keine klassische Konsumlandschaft, sondern Teil der kritischen Infrastruktur. Es versorgt Millionen Menschen und Unternehmen mit Strom, Wärme und Mobilität. Jede Veränderung muss sorgfältig integriert werden, um Stabilität zu gewährleisten.

Statt auf radikale Umbrüche zu setzen, braucht es eine Haltung der systemischen Innovation. Erfolgreiche EnergyTech-Unternehmen arbeiten mit dem System, nicht gegen es. Sie schaffen Lösungen, die bestehende Prozesse verbessern und den Übergang zur Klimaneutralität erleichtern. Unternehmen wie Gridx, EV.Energy, Enspired, Reev oder Thermondo zeigen, wie das funktionieren kann. Sie haben ihre Geschäftsmodelle so aufgebaut, dass sie technologische Exzellenz mit regulatorischer Konformität und gesellschaftlicher Akzeptanz verbinden.Für Gründer*innen bedeutet das, sich früh mit Netzbetreiber*innen, Behörden und Installationsbetrieben zu vernetzen. Der Aufbau von Vertrauen ist im Energiesektor ein strategischer Vorteil. Wer die Abläufe in Kommunen, Stadtwerken und öffentlichen Einrichtungen versteht, kann die langen Vertriebszyklen besser steuern und Pilotprojekte realistisch planen.

Warum gute Ideen im Energiemarkt oft scheitern

Die Gründe für das Scheitern von EnergyTech-Start-ups liegen selten in der Technologie. Viel öfter sind es strukturelle oder strategische Fehler. Der Verkauf an Energieversorger*innen oder kommunale Betriebe dauert oft mehrere Jahre. Wer in dieser Zeit nicht über ausreichend Kapital und Geduld verfügt, läuft Gefahr, aufzugeben, bevor der Markteintritt gelingt.

Ein weiterer kritischer Punkt ist die Zusammensetzung des Teams. In vielen Fällen sind Teams stark technisch geprägt, während Marktverständnis, politische Kompetenz und regulatorisches Wissen fehlen.

Auch die Wahl der Investor*innen spielt eine entscheidende Rolle. Kapitalgeber*innen, die nur finanzielle Rendite erwarten, sind im Energiemarkt selten die richtige Wahl. Wichtiger sind Investor*innen, die strategischen Netzwerke öffnen, Kontakte zu Stadtwerken oder Netzbetreiber*innen vermitteln oder bei der Skalierung unterstützen. Eine gut strukturierte Cap Table mit klaren Verantwortlichkeiten schafft dabei Transparenz und Vertrauen.

Darüber hinaus müssen Gründer*innen ihre Wirkung belegen können. Im Energiemarkt zählt nicht nur der technologische Fortschritt, sondern auch der nachweisbare Beitrag zur Dekarbonisierung. Wer den Carbon Return on Investment klar beziffern kann, wer Pilotprojekte erfolgreich umsetzt und belastbare Daten liefert, überzeugt Kund*innen, Partner*innen und Investor*innen gleichermaßen. Greenwashing hingegen ist ein reales Risiko. Der Markt erkennt schnell, wer nur mit Nachhaltigkeit wirbt, ohne messbare Ergebnisse zu liefern.

Strategien und praxisnahe Tipps für Gründer*innen

Es gibt mehrere zentrale Hebel, mit denen Gründer*innen die typischen Hürden im deutschen Energiemarkt überwinden können. Einer der wichtigsten ist der Aufbau früher Partnerschaften. Kooperationen mit Netzbetreiber*innen, Stadtwerken oder kommunalen Einrichtungen schaffen Glaubwürdigkeit und erleichtern den Zugang zu Genehmigungsprozessen. Wer diese Partnerschaften schon in der Entwicklungsphase aufbaut, versteht die Marktmechanismen besser und kann Projekte effizienter realisieren.

Ebenso entscheidend ist die Zusammensetzung des Teams. Interdisziplinarität ist im Energiesektor kein Luxus, sondern Notwendigkeit. Erfolgreiche Teams vereinen technische, wirtschaftliche und politische Kompetenzen. Sie wissen, wie regulatorische Entscheidungen getroffen werden, welche Förderprogramme relevant sind und wie man Innovationsprojekte in bestehende Strukturen integriert. Ein divers aufgestelltes Team kann Risiken besser einschätzen und Investor*innen überzeugender ansprechen.

Auch die Gestaltung der Cap Table verdient besondere Aufmerksamkeit. Kapitalgeber*innen sollten nicht nur Geld mitbringen, sondern auch strategischen Mehrwert bieten. Kontakte zu Entscheidungsträger*innen, Branchenkenntnis und operative Unterstützung bei Pilotprojekten sind entscheidende Erfolgsfaktoren. Eine transparente Struktur, in der jede Partei klar definierte Rollen hat, fördert Vertrauen und beschleunigt Entscheidungen.

Ein weiterer zentraler Punkt ist die Nachweisbarkeit von Wirkung. Gründer*innen müssen ihren ökologischen und ökonomischen Mehrwert belegen können. Messbare Kennzahlen wie Emissionseinsparungen, Energieeffizienz oder Carbon ROI sind ausschlaggebend, um Glaubwürdigkeit zu schaffen. Pilotprojekte mit belastbaren Ergebnissen überzeugen nicht nur Investor*innen, sondern auch Kund*innen und öffentliche Partner*innen.

Nicht zuletzt braucht es realistische Planung. Genehmigungsprozesse und Netzanschlüsse dauern in Deutschland oft Jahre. Wer dies in der Finanzplanung berücksichtigt und seine Strategie auf gestaffelte Rollouts oder modulare Produktarchitekturen ausrichtet, vermeidet teure Fehlentscheidungen. Skalierung im Energiemarkt bedeutet nicht Geschwindigkeit um jeden Preis, sondern nachhaltiges Wachstum mit stabilem Fundament.

Blick nach vorn: Warum sich Ausdauer lohnt

Trotz aller Hürden bleibt der deutsche Energiemarkt für Gründer*innen besonders attraktiv. Die globalen Trends sprechen eine klare Sprache: Laut der Internationalen Energieagentur (IEA) wird sich die installierte Leistung aus erneuerbaren Energien weltweit bis 2030 voraussichtlich mehr als verdoppeln, angetrieben vor allem durch den rasanten Aufstieg der Solarenergie. Wind- und Speichertechnologien werden ebenfalls stark wachsen, während Start-ups gleichzeitig mit Herausforderungen in Lieferketten, Netzintegration, Finanzierung und politischen Veränderungen umgehen müssen.

Eine aktuelle Zwischenbilanz der Internationalen Agentur für erneuerbare Energien (Irena) zeigt, dass die weltweite neu installierte Leistung 2024 bei rund 582 Gigawatt lag – ein Rekordwert. Gleichzeitig reicht dies nicht aus, um die auf der Uno-Klimakonferenz von Dubai 2023 vereinbarten Ziele zu erreichen, die Kapazität bis 2030 auf 11,2 Terawatt zu verdreifachen. Dazu wären ab sofort jährlich zusätzlich 1.122 Gigawatt nötig. Auch bei der Energieeffizienz hinken die Fortschritte hinterher: Die jährliche Wachstumsrate liegt aktuell bei rund einem Prozent, während vier Prozent notwendig wären.

Für Gründer*innen bedeutet dies, dass die Nachfrage nach innovativen, zuverlässigen und systemgerechten Lösungen weiter steigen wird. Wer sich frühzeitig auf Pilotprojekte einlässt, Netzanschlüsse koordiniert und regulatorische Prozesse kennt, kann einen entscheidenden Vorsprung erzielen. Deutschland bietet durch klare Klimaziele, Förderprogramme und politische Unterstützung zudem ein Umfeld, in dem Innovationen nachhaltige Wirkung entfalten können.

Ausdauer zahlt sich aus, weil die Transformation der Energieversorgung Zeit braucht. Wer heute in Partnerschaften, systemgerechte Lösungen und messbare Wirkung investiert, legt das Fundament für langfristigen Markterfolg. Die Verbindung von Innovation, Skalierbarkeit und nachweisbarem ökologischen Mehrwert wird zum entscheidenden Wettbewerbsvorteil und ermöglicht Gründer*innen, die Energiewende aktiv mitzugestalten.

Der Autor Jan Lozek ist Geschäftsführer von Future Energy Ventures. Als Investor und Wegbereiter der Energiewende unterstützt er Gründer*innen dabei, Technologien für ein klimaneutrales Energiesystem zu entwickeln und fördert innovative Unternehmen.

DLR-Spin-off Nunos liefert Raumfahrt-Technik für den Acker

Das 2024 von Fabian Miersbach und Tim Paulke gegründete Start-up Nunos hat ein Verfahren entwickelt, das Gülle in effizienteren, geruchlosen Dünger umwandelt. Die Deutsche Bundesstiftung Umwelt (DBU) fördert Nunos mit 125.000 Euro.

Das Düngen mit Gülle ist wichtiger Bestandteil einer im Kreislauf gedachten Landwirtschaft. Aktuell ruhen viele Äcker noch, doch ab Februar versorgen zahlreiche Landwirt*innen ihre Felder wieder auf diese Weise mit Nährstoffen. Doch durch Gülle entstehen auch umweltschädliche Gase wie Ammoniak und Methan. Das Hürther Start-up Nunos hat nun ein Verfahren entwickelt, das Gülle in effizienteren, geruchlosen Dünger umwandelt. Dies verringert den Ausstoß von Treibhausgasen (THG) und sorgt gleichzeitig für eine bessere Nährstoff-Versorgung der Pflanzen. Mitgründer Tim Paulke zufolge wandelt die firmeneigene Anlage „innerhalb eines 24-Stunden-Zyklus‘ mit einem rein biologischen Verfahren Gülle zu einem Düngemittel mit höherer Nährstoffnutzungseffizienz und deutlich geringeren Treibhausgas-Emissionen um.“

Astronautik-Technologie für eine breite Anwendung

Als Ausgründung aus dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) optimiert das Nunos-Team eine in der Astronautik entwickelte Technologie für eine breite Anwendung in der Landwirtschaft. Paulke: „Das zugrundeliegende System wurde ursprünglich zur Aufbereitung von menschlichem Urin als Düngemittel für den erdfreien Anbau in Gewächshäusern auf Raumstationen entwickelt.“ Bei der neuen Anwendung werde die Gülle in der bei den Betrieben errichteten Anlage mithilfe von Mikroorganismen weiterverarbeitet. „Es entstehen ein dünnflüssiges, geruchsloses Düngemittel und eine geringe Menge eines nährstoffreichen Feststoffs,“ so Paulke.

Ernte-Mehrertrag von 20 Prozent erwartet

Bei der Güllelagerung unter dem Stallboden reagieren die Ausscheidungen und setzen schädliche Gase frei. Paulke: „Um die Ausgasung von Methan und Ammoniak zu vermeiden, wird die Gülle möglichst schnell aus den Ställen in die Aufbereitungsanlage geleitet.“ Das zügige Entfernen erhöht nach seinen Worten auch das Tierwohl. Außerdem „werden die Nährstoffe in dem Düngemittel so aufbereitet, dass sie direkt für die Pflanzen verfügbar sind“, so der Nunos-Mitgründer. Diese Nährstoffe kämen schneller als beim herkömmlichen Ausbringen der Gülle bei den Pflanzen an. Auswaschungen aus dem Boden würden so deutlich verringert. „Nach ersten Pflanzversuchen rechnen wir bei der Ernte mit einem Mehrertrag von bis zu 20 Prozent, was wir in 2026 auf zwei landwirtschaftlichen Betrieben in Feldversuchen validieren möchten“, prognostiziert Paulke

Nunos-Dünger auch für den Hausgebrauch

Neben den Gülle-Aufbereitungsanlagen stellt das Start-up nach eigenen Angaben kleinere Mengen des Düngemittels für den Hausgebrauch her. „Der Dünger wirkt auch für den heimischen Tomatenanbau oder Zimmerpflanzen wie ein Multivitamin-Drink“, so Paulke. Der Vertrieb erfolge über das Internet. Das Verfahren zur Umwandlung der Gülle in den effizienten Dünger sei über das DLR patentiert und von Nunos exklusiv lizensiert.

Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Unternehmen mit 125.000 Euro. Paulke: „Aktuell arbeiten wir hauptsächlich mit Rindergülle und Gärresten aus Biogasanlagen. Durch die DBU-Förderung bekommen wir die Möglichkeit, das Verfahren ausführlicher auf seine Umweltauswirkungen zu testen, anstatt nur wirtschaftliche Faktoren zu betrachten.“ Außerdem geplant seien neue Feldversuche, die die zusätzlichen Erträge durch den Dünger weiter verifizieren und Optimierungsmöglichkeiten finden.

Mehr Effektivität und wirtschaftliche Effizienz für die Landwirtschaft

DBU-Referentin Dr. Susanne Wiese-Willmaring sieht großen Bedarf in der Landwirtschaft für Konzepte wie das von Nunos: „Die Bäuerinnen und Bauern wissen von den Auswirkungen der bei ihrer Arbeit entstehenden Treibhausgase. Oft wollen Sie etwas verändern und müssen es aufgrund gesetzlicher Vorgaben teils auch.“ Die hohen Treibhausgas-Emissionen brächten der Landwirtschaft einen Misskredit ein, der durch innovative Lösungen behoben werden könne. Wiese-Willmaring weiter: „Für die Betriebe müssen dabei Effektivität und wirtschaftliche Effizienz stimmen – Herausforderungen, die Nunos beide aktiv angeht.“

Report Gendermedizin

Auch mithilfe von FemTech- und HealthTech-Start-ups steigt in unserer Gesellschaft langsam das Bewusstsein dafür, dass der weibliche Körper medizinisch anders funktioniert als der männliche, und Frauengesundheit mehr ist als "nur" Zyklus, Schwangerschaft und Wechseljahre.

Alles, was speziell für die Frau ist und beim Mann nicht existiert“, erklärt Raoul Scherwitzl, Doktor der Philosophie, Festkörper- und Materialphysik sowie Co-Founder des FemTech-Start-ups Natural Cycles, was mit Frauenmedizin gemeint ist. Diese Aussage wird häufig innerhalb gesundheitspolitischer Debatten getätigt, wenn es darum geht, wie Frauenkrankheiten im Gegensatz zum männerzentrierten Usus in der Medizin behandelt werden: oftmals zweitrangig oder als Anhängsel an männerfokussiertem Wissen.

Der französische Soziologe Pierre Bourdieu beschrieb in seinem Werk „Die männliche Herrschaft“ bereits 1998, wie „kulturelle und wissenschaftliche Systeme männliche Normen als allgemeingültig setzen und alles, was weiblich ist, als Abweichung oder Sonderfall markieren“. Sieht man sich die Geschichte der westlichen Medizin an, drängt sich der Eindruck auf, dass Bourdieus Beschreibung für den Gesundheitsbereich ins Schwarze trifft.

Blickt man darüber hinaus in die (Fach-)Literatur der letzten Jahrzehnte, so erkennt man: Bis in die späten 80er-Jahre wurden weibliche Bedürfnisse, psychosoziale Belastungen und Körperbilder in der medizinischen Forschung und Praxis weitgehend ignoriert. Erst eine aufkeimende Frauengesundheitsbewegung durchbrach diese Mauer und etablierte den Begriff Frauengesundheit bzw. Gendermedizin. Seitdem schärft sich der Blick auf die Frau, und die Gesellschaft hat begonnen, in Publikationen und Debatten genauer hinzusehen – mit einer bewusstseinsschaffenden Agenda, warum dieses Thema wichtig ist.

Frauengesundheit ist mehr als Reproduktion

„Die Definition von Frauengesundheit wird oft sehr eng gefasst“, erklärt Scherwitzl das Problem; „nämlich als alles, was mit reproduktiver Gesundheit zu tun hat: Menstruations­zyklus, Pubertät, Schwangerschaft, Geburt, Wochenbett, Unfruchtbarkeit und Wechseljahre. Die klassische Definition spannt sich dabei meist über das reproduktive Zeitfenster einer Frau zwischen etwa 15 und 50 Jahren.“ Dabei werde oft übersehen, dass Frauengesundheit weit mehr umfasse: „Es geht auch darum, den gesamten Gesundheitsbereich aus der Perspektive von Frauen zu betrachten – und das wird bislang kaum getan“, so Scherwitzl. Ein großes Problem liegt laut dem Gründer darin, dass die meisten Medikamente auf Basis klinischer Studien mit Männern entwickelt wurden; mit der Annahme, dass sie bei Frauen gleich gut wirken – obwohl Frauen biologisch anders reagieren. Als Beispiel nennt Scherwitzl die Insulinresistenz, die sich bei Frauen im Lauf des Zyklus verändert. „Dies wird aber kaum berücksichtigt“, ergänzt er.

Im Gesundheitswesen fehle es häufig an passenden Tools und Produkten, um Frauen gezielt zu unterstützen. Ein Beispiel hier sei die Hormontherapie in den Wechseljahren, bei der oftmals lediglich hoch dosierte Varianten jahrzehntealter Medikamente zum Einsatz kämen. „Das Resultat ist, dass sich Frauen häufig selbst um ihre Beschwerden kümmern müssen. Viele suchen zunehmend online nach Hilfe. Große Pharmakonzerne haben diesen Mangel erkannt und investieren inzwischen in Forschung zu Themen wie Endometriose oder Wechseljahre“, sagt Scherwitzl. Sein Start-up Natural Cycles setzt auf ein datenbasiertes Modell mit Körperwerten und Algorithmen, kombiniert mit Aufklärung und individualisierter Medizin; mit dem Ziel, einen Beitrag dazu zu leisten, dass Frauen künftig Zugang zu besser abgestimmten Medikamenten und mehr effektiven Lösungen erhalten.

Es muss endlich in die Köpfe kommen

„Es muss endlich in die Köpfe kommen, dass der weibliche Körper anders funktioniert als der männliche“, mahnt Simone Mérey in diesem Sinn. Sie ist Founderin des 2022 gegründeten Pflege-Start-ups HeldYn. Mérey hat jahrelang im Krankenhaus gearbeitet und hatte dabei viel mit Schmerzpatient*innen zu tun. Sie erkannte dabei einen Gender-Bias: Frauen mit Schmerzen wurden oft als wehleidig abgestempelt – veraltete Vorstellungen in den Köpfen der Beteiligten –, mit der Folge, dass Patientinnen schnell einmal als depressiv oder psychisch labil eingestuft wurden. „Dies ist keine akkurate Einschätzung – es ist wissenschaftlich belegt, dass Frauen eine höhere Schmerzgrenze als Männer haben“, betont Mérey. „Hier merkt man, wie soziale Konstrukte wirken: Die Frau wird oft als die gesellschaftlich Schwächere wahrgenommen, obwohl ihr Körper viel aushält, Stichwort Geburt. So kommt es zu falschen Dosierungen und der Vernachlässigung von Symptomen.“

Chance für HealthTech-Start-ups?

Eine Vernachlässigung, die Akteur*innen und Start-ups im Health-Bereich Chancen eröffnet. Ähnlich denkt Scherwitzl, der Start-ups mit „großen Ambitionen“ im Entstehen sieht: „Das Funding ist da“, sagt er. „Vor allem in den letzten fünf Jahren hat sich einiges verbessert. Wenn Investoren merken, dass man hier viel Growth erreichen kann, wird noch mehr Geld fließen.“

Was jedoch aktuell noch fehle, sei der große Erfolg, der beweise, dass es sich lohne, in dieses Feld zu investieren. „Im Pharmabereich gibt es etwa die Pille oder Antidepressiva – im digitalen Bereich bin ich jedoch optimistisch, dass der nächste große Durchbruch bevorsteht“, so Scherwitzl. Der Founder zeigt sich überzeugt, dass es zu jedem pharmazeutischen Ansatz künftig auch eine digitale Alternative geben sollte, mit der Frauen medizinisch besser begleitet werden können. „Pharmakonzerne wie Bayer, Organon und Merck haben trotz Deinvestitionen weiterhin Pipelines im Bereich Frauengesundheit. Gleichzeitig gibt es Start-ups wie uns oder Flo in England, das eine neue Version des Kondoms für Frauen entwickelt. Die dänische Cirqle Biomedical arbeitet ebenfalls an einer Alternative zum Kondom, die den Uterus verschließt. Außerdem existieren Start-ups wie Endogene.Bio, das sich auf Endometriose fokussiert.“

Auch Mérey hat trotz aller Probleme bei der Frauenmedizin einen neuen Tenor in dieser Sache erkannt, der sich vom bisherigen „medizinischen Ratschlag“ an Frauen à la „Man muss da durch“ unterscheide: Das Thema der zweiten Lebenshälfte der Frauen werde mehr diskutiert, Tabuthemen wie Wechseljahre würden aufgebrochen. Mérey: „Der negative Anstrich wird langsam entfernt. Es hat in den letzten Jahren ein Umdenken gegeben.“

KI-Modelle erfolgreich im Unternehmen einführen

Worauf es bei der Implementierung von KI wirklich ankommt.

Künstliche Intelligenz (KI) gewinnt in Unternehmen zunehmend an Bedeutung. Sie kann Prozesse beschleunigen, große Datenmengen sinnvoll nutzbar machen und Entscheidungen unterstützen. Doch in der Praxis zeigt sich: Moderne Technologie allein führt noch nicht zum Erfolg. Entscheidend ist ein strukturiertes Vorgehen, bei dem Ziele klar definiert, Daten sorgfältig vorbereitet und organisatorische Rahmenbedingungen von Beginn an berücksichtigt werden. „Viele KI-Initiativen scheitern daran, dass am Anfang die Orientierung fehlt“, sagt Benedikt Weber, Geschäftsführer der applord GmbH. „Struktur schafft Entscheidungsfähigkeit – noch bevor über konkrete KI-Modelle gesprochen wird.“

Organisatorischer Wandel und Einbindung der Mitarbeitenden

Der Einsatz von KI verändert Arbeitsabläufe, Verantwortlichkeiten und Entscheidungswege. Mitarbeitende arbeiten verstärkt mit automatisierten Systemen zusammen, Aufgaben verschieben sich, Rollen entwickeln sich weiter. Wird dieser Wandel nicht aktiv begleitet, entstehen Unsicherheiten oder Ablehnung gegenüber neuen Technologien. Erfolgreiche Unternehmen setzen deshalb auf transparente Kommunikation und frühzeitige Einbindung der Mitarbeitenden. Sie erklären, warum KI eingesetzt wird, welche Aufgaben sie übernimmt und wo menschliche Expertise weiterhin unverzichtbar bleibt. Fehlt dieses gemeinsame Verständnis, werden neue Systeme häufig nur eingeschränkt genutzt. „KI-Projekte scheitern selten an der Technologie“, betont Weber. „Viel häufiger fehlt ein klares Bild davon, welchen konkreten Nutzen KI für Mitarbeitende und Organisation wirklich bringt.“

Auswahl der passenden KI-Lösung

Das Angebot an KI-Lösungen wächst rasant. Für Unternehmen besteht die Herausforderung darin, nicht der technischen Vielfalt zu folgen, sondern eine Lösung zu wählen, die zum eigenen Geschäftsprozess passt. Der Ausgangspunkt sollte immer ein klar definierter Anwendungsfall sein: Welche Aufgabe soll KI konkret unterstützen oder verbessern? Neben den Funktionen spielen auch Fragen der Nachvollziehbarkeit, Integration in bestehende Systeme und regulatorische Anforderungen eine Rolle. Werden diese Aspekte zu spät berücksichtigt, entstehen Lösungen, die technisch leistungsfähig sind, im Alltag aber keinen Mehrwert liefern. „Viele Unternehmen wählen KI nach dem Funktionsumfang aus und stellen später fest, dass sie nicht zum eigenen Prozess passt“, erklärt Weber. „Erfolgreich ist KI dann, wenn sie Abläufe sinnvoll ergänzt und verständliche Ergebnisse liefert.“

Datenqualität als Grundlage für verlässliche Ergebnisse

KI-Modelle sind vollständig von der Qualität ihrer Daten abhängig. In vielen Unternehmen existieren relevante Informationen zwar, sie sind jedoch über verschiedene Systeme verteilt, unterschiedlich gepflegt oder historisch gewachsen. Diese Ausgangslage erschwert nicht nur den Einsatz von KI, sondern kann zu fehlerhaften oder schwer nachvollziehbaren Ergebnissen führen. Datenmanagement ist daher keine einmalige Vorarbeit, sondern eine kontinuierliche Aufgabe. Dazu gehören klare Zuständigkeiten, regelmäßige Prüfungen und eine strukturierte Aufbereitung der Daten. „Der Aufwand für Datenqualität wird häufig unterschätzt“, sagt Weber. „Ohne geprüfte und konsistente Daten lassen sich keine stabilen und verlässlichen KI-Ergebnisse erzielen – unabhängig davon, wie gut das Modell ist.“

Schrittweise Einführung statt großer Umbruch

Statt KI sofort unternehmensweit einzusetzen, empfiehlt sich ein schrittweises Vorgehen. Unternehmen können so mit klar abgegrenzten Anwendungsfällen beginnen, Lösungen im Alltag testen und die Ergebnisse anhand messbarer Kriterien, wie Benutzerfreundlichkeit oder verständlicher Anleitungen, bewerten. So lassen sich Risiken reduzieren und Erkenntnisse gezielt nutzen. Pilotprojekte liefern nicht nur technische Erkenntnisse, sondern zeigen auch, wie gut KI im Arbeitsalltag akzeptiert wird. Auf dieser Basis lässt sich entscheiden, welche Lösungen ausgebaut werden sollten. „Unternehmen, die mit überschaubaren Anwendungsfällen starten, treffen langfristig fundiertere Entscheidungen“, so Weber. „Praxiserfahrungen sind dabei deutlich wertvoller als theoretische Annahmen.“

KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar

Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.

Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.

Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?

Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.

Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.

Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.

Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.

Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.

Schnelles Wachstum kann zu einem Überschuss führen

Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.

Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.

Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.

KI-Agenten als Transformationstreiber 2026

Eine aktuelle DeepL-Studie zeigt: 69 % der globalen Führungskräfte erwarten für 2026 tiefgreifende Veränderungen durch KI-Agenten; KI-Sprachtechnologie wird zur unverzichtbaren Infrastruktur.

Eine neue Studie von DeepL, einem globalen Unternehmen für KIProdukte und Forschung, zeigt: 2026 wird für viele Organisationen den Übergang vom Experimentieren mit KI hin zu agentischer Automatisierung markieren. So erwartet die Mehrheit der weltweit befragten Führungskräfte (69 %), dass agentenbasierte KI ihre Geschäftsabläufe im kommenden Jahr deutlich verändern wird.

Die Studie wurde im September 2025 von Censuswide im Auftrag von DeepL durchgeführt. Befragt wurden 5.000 Führungskräfte in Deutschland, Frankreich, den USA, Großbritannien und Japan. Die Ergebnisse deuten darauf hin, dass Unternehmen verstärkt planen, autonome KI-Agenten im großen Umfang einzusetzen – etwa zur Unterstützung von Wissensarbeit, zur Ezienzsteigerung oder zur Anpassung organisatorischer Strukturen. Damit zeichnet sich die bedeutendste operative Veränderung in der Wirtschaft seit der Einführung der Cloud an.

„KI-Agenten sind längst nicht mehr experimentell, sie sind unumgänglich.“ sagt Jarek Kutylowski, CEO und Gründer von DeepL. „Die nächste Phase besteht darin, sie tiefgreifend in unsere Arbeitsweisen zu integrieren. In 2026 werden KI-Agenten das mühsame Umschalten zwischen verschiedenen Kontexten und repetitive Aufgaben übernehmen, sodass sich Menschen auf das konzentrieren können, was Unternehmen tatsächlich voranbringt.“

KI-Agenten werden zum nächsten Disruptor für Unternehmen

Nach ersten Pilot- und Anwendungsfällen rücken KI-Agenten zunehmend in den produktiven Einsatz:

  • Fast die Hälfte der globalen Führungskräfte (44 %) erwartet für 2026 einen tiefgreifenden Wandel durch agentische KI; ein Viertel (25 %) sieht diesen Wandel bereits heute. Nur 7 % glauben, dass KI-Agenten ihre Betriebsabläufe nicht verändern werden, was die hohe Geschwindigkeit der Implementierungen unterstreicht.
  • Als die drei wichtigsten Voraussetzungen für den sinnvollen und vertrauenswürdigen Einsatz von KI-Agenten nennen die Befragten nachweisbare Ezienz- und ROI-Eekte (22 %), Anpassungsfähigkeit der Belegschaft (18 %) und zunehmende organisatorische Bereitschaft (18 %).
  • Als wesentliche Herausforderungen bei der Einführung von KI-Agenten nennen die Befragten Kosten (16 %), Bereitschaft der Belegschaft (13 %) und Reife der Technologie (12 %).

KI als zentraler Wachstumstreiber für globale Unternehmen

Über Agenten hinaus gilt KI insgesamt als wichtigster Motor für das Wirtschaftswachstum in 2026:

  • Über zwei Drittel (67 %) der Befragten geben an, dass sich der ROI ihrer KI-Initiativen in diesem Jahr erhöht hat; mehr als die Hälfte (52 %) erwartet, dass KI im kommenden Jahr mehr zum Unternehmenswachstum beitragen wird als jede andere Technologie.
  • Wenn es um messbare Verbesserungen durch KI geht, liegt Deutschland (78 %) zusammen mit Großbritannien (80 %) an der Spitze, gefolgt von den USA (71 %) und Frankreich (70 %). Japan verzeichnet mit 35 % deutlich niedrigere Werte, was auf langsamere Implementierungen und Bereitschaften hindeutet.
  • Über die Hälfte der globalen Führungskräfte (51 %) rechnet damit, dass KI im kommenden Jahr mehr neue Rollen schat als ersetzt. 52 % geben an, dass KI-Kenntnisse für die meisten Neueinstellungen vorausgesetzt werden.

KI-Sprachtechnologie entwickelt sich vom Werkzeug zur zentralen Infrastruktur

Die Studie zeigt zudem, wie KI-Sprachtechnologie zur entscheidenden Komponente der Unternehmensinfrastruktur wird:

  • Fast zwei Drittel der globalen Unternehmen (64 %) planen 2026 steigende Investitionen in KI-Sprachtechnologie – angeführt von Großbritannien (76 %) und Deutschland (74 %), gefolgt von den USA (67 %) und Frankreich (65 %) werden mehrsprachige Kommunikation und Inhalte zu zentralen Faktoren für globales Wachstum. Im Gegensatz dazu bleibt Japan (38 %) vergleichsweise konservativ, was auf eine langsamere Dynamik hindeutet, gleichzeitig aber das wachsende Interesse von mehr als einem Drittel der Führungskräfte widerspiegelt.

In diesem Zusammenhang wird Echtzeit-Sprachübersetzung 2026 unverzichtbar:

  • Über die Hälfte der globalen Führungskräfte (54 %) sieht Echtzeit-Sprachübersetzung im kommenden Jahr als unverzichtbar an – derzeit sind es ein Drittel (32 %).
  • Großbritannien (48 %) und Frankreich (33 %) sind Vorreiter bei der Nutzung von Tools für die Echtzeit-Sprachübersetzung; Japan liegt derzeit nur bei 11 %.
  • Die Nachfrage wird angetrieben von technologischen Fortschritten in der Echtzeit-Sprachübersetzung (46 %), Kundenerwartungen (40 %) und marktübergreifender Expansion (38 %).

Die Erkenntnisse der Studie liefern wichtige Einblicke in die Zukunft der KI und zeigen, wie diese Veränderungen Branchen umgestalten, Kundenerwartungen neu definieren und sich auf das Wettbewerbsumfeld auswirken.

NICAMA Naturkosmetik: Von der Studienidee zum nachhaltigen Erfolgsunternehmen

NICAMA Naturkosmetik feiert sein fünfjähriges Bestehen: Was mit kleinen Experimenten während des Studiums begann, ist heute ein etabliertes Naturkosmetikunternehmen mit über 600 Handelspartnern im DACH-Raum.

Was 2019 als mutige Idee von vier Studierenden begann, wurde rasch zu einem inspirierenden Beispiel für gelebte Nachhaltigkeit. In einer Zeit, in der Umweltschutz noch kein selbstverständlicher Trend war, experimentierten die Gründerinnen und Gründer mit festen Shampoos, um eine plastikfreie Alternative zu herkömmlicher Kosmetik zu schaffen. Das erste Produkt entstand mit viel Leidenschaft, Neugier und Improvisation. Damit war der Grundstein für den späteren Unternehmenserfolg gelegt.

Ein erfolgreiches Crowdfunding finanzierte 2019 die erste Produktcharge und machte den Traum vom eigenen Webshop möglich. Es folgten die ersten Partnerschaften mit Bioläden, Outdoorhändlern, Friseuren und Geschenkeläden, die an die Vision glaubten. Heute zählt NICAMA stolz über 600 Vertriebspartner und wächst weiter.

Ein entscheidender Meilenstein war die Entwicklung des 1plus1 Meeresschutz-Prinzips: Für jedes verkaufte Produkt werden 100 Gramm Plastik in Küstenregionen gesammelt. Dieses Prinzip ist transparent, messbar und von jedem/jeder Kund*in nachvollziehbar. Bis heute konnten so über 33.290 Kilogramm Plastik aus der Umwelt entfernt werden. Das entspricht mehr als 3,2 Millionen Plastikflaschen. Darüber hinaus hat das Team mehrere Elbreinigungen organisiert, unter anderem gemeinsam mit der Naturschutzjugend NAJU und Charlotte Meentzen.

Mit dem Schritt in die Upcycling Beauty wurde NICAMA zum Pionier in Deutschland. Dabei werden wertvolle Nebenprodukte aus der Lebensmittelproduktion wie Ingwertrester und Kaffeekirsche zu hochwertigen Inhaltsstoffen verarbeitet. Heute umfasst das Sortiment über 50 plastikfreie Produkte, darunter Seifen, Shampoos, Deocremes, Pflegeöle und Körperpeelings – alle minimalistisch verpackt und mit reduzierten, sorgfältig ausgewählten Rezepturen.

Die Reise war jedoch nicht ohne Herausforderungen: Die Corona Pandemie und die Inflationsfolgen des Ukraine-Krieges setzten auch NICAMA stark zu. Das einst 15-köpfige Team musste sich zwischenzeitlich deutlich verkleinern. Trotz dieser Rückschläge bewies das Unternehmen Durchhaltevermögen. Heute steht es so solide da wie nie zuvor. Seit zwei Jahren verzeichnet NICAMA wieder überdurchschnittliches Wachstum und das deutlich über dem allgemeinen Naturkosmetikmarkt in Deutschland.

Für sein Engagement und seine Innovationskraft wurde das Unternehmen mehrfach ausgezeichnet: 2021 gewann NICAMA den Sächsischen Gründerpreis und erhielt bereits viermal den eku Zukunftspreis des Sächsischen Staatsministeriums für Umwelt und Landwirtschaft.

Happy Homeoffice Club gestartet

Gründerin Caterina Hirt startet ein digitales Netzwerk als kollaborative Kommunikationsplattform für selbständige Mütter im Homeoffice.

Mit dem Start des Happy Homeoffice Clubs entsteht ein neues digitales Angebot für selbständige Mütter – mit Liveformaten, Co-Working, einer innovativen Softwareplattform und vielen nützlichen Business-Hacks. Die Gründerin Caterina Hirt bringt damit ein strukturiertes, unterstützendes Netzwerk an den Start, das den oft isolierten Homeoffice-Alltag in einen Ort der Verbindung, Motivation und echten Weiterentwicklung verwandelt. „Ich habe selbst erlebt, wie herausfordernd es ist, Beruf, Familie und Selbstverwirklichung unter einen Hut zu bringen – vor allem im Homeoffice. Mit dem Happy Homeoffice Club möchte ich Frauen zeigen, dass sie nicht alleine sind“, so die Gründerin. Caterina Hirt ist Unternehmerin, Autorin, systemische Coachin und Mutter von zwei Kindern. Mit ihrem Agenturbackground und über zehn Jahren Erfahrung im Homeoffice weiß die Marketingspezialistin aus erster Hand, welche Chancen – aber auch welche Herausforderungen – dieser Arbeitsalltag birgt.

Kern der Zusammenarbeit ist eine kollaborative Kommunikationsplattform, über die die Mütter dauerhaft in einem echten Netzwerk verbunden sind. Dazu setzt das Angebot auf Livecalls, Community-Austausch, Expertenvorträge und snackable Businesstipps, die den Workflow im Homeoffice effizienter machen. Das Angebot richtet sich explizit an selbständige Frauen oder Mütter im Homeoffice. „Bei uns fühlt sich keine Teilnehmerin mehr allein. Hier treffen sich Frauen, die genau wissen, wie es ist, mit Laptop, Kaffee, Kind und manchmal ein bisschen Chaos zu jonglieren. Sie arbeiten, lachen, tauschen sich aus und motivieren sich gegenseitig. So modern, vernetzt und unterstützend, wie man es sich als Selbstständige immer gewünscht hat “, sagt Caterina Hirt.

Die zugrundeliegende Softwarelösung bietet eine hochmoderne Nutzeroberfläche, Chats, Calls in einer geschützten Umgebung sowie Daten- und Wissensaustausch an. So gibt es zum Beispiel den Monday Motivation Call mit allen Teilnehmerinnen oder eine interaktive Kaffeeküche, in der man sich einfach mal über alle Themen abseits des Business interaktiv austauschen kann. Die Plattform wird jeder Teilnehmerin zur Verfügung gestellt, die Nutzung ist in der monatlichen Mitgliedsgebühr von 49 Euro (Einführungspreis) enthalten. Interessentinnen können die Community inklusive aller Angebote zwei Wochen kostenlos testen.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Report: Quantencomputing

Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.

Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.

Herausforderungen

Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.

Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.

Trends

In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.

Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.

Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintritts­barrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.

Die Rolle von Start-ups

Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.

Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.

Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.

Deutsche QC-Start-ups mischen ganz vorne mit

Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.

Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.