Geschäftsideen Garten: Pflanzensets aus dem Internet

Pflanzensets online bestellen


44 likes

Das Start-up "etagen-erika" liefert seit der letzten Saison nach Onlinebestellung regionale Pflanzensets für Balkone und Terrassen zum Selbstgärtnern aus. Eine grüne Geschäftsidee.

Die Kunden können aus einem Sortiment an saisonalen Pflanzen, Kräutern und Gemüsesorten wählen bzw. sich beraten lassen und anschließend online bestellen. Die Bestellung wird samt Pflanzgefäß, Bio-Blumenerde, Gärtnerhandschuhen sowie "Gärtnerrezept" (Pflanz- und Pflegeanleitung) nach Hause geliefert.

Nachdem es mit dieser Geschäftsidee in Berlin losging, werden mittlerweile Kunden in ganz Deutschland direkt beliefert. Etagen-Erika arbeitet dabei bevorzugt mit regionalen Gärtnereien vor Ort zusammen. Somit erhalten die Gärtnereien dank dieser Geschäftsidee Anschluss ans Onlinegeschäft, ohne selbst aktiv werden zu müssen.

Robotik-Start-up Ottonomy startet Pilotprojekt im Münchner Flughafen

Der Lufthansa Innovation Hub und der Munich Airport kooperieren zur Förderung von Innovation in der Luftfahrt: Pilotprojekte mit Start-ups sind vor diesem Hintergrund wichtige Hebel zur Implementierung innovativer Lösungen.

Die Luftfahrtbranche steht vor einer Vielzahl von Herausforderungen, sowohl auf Kund*innenseite als auch in geschäftlichen Prozessen. Innovation spielt eine entscheidende Rolle bei der Bewältigung dieser Herausforderungen, indem sie Möglichkeiten zur Digitalisierung, Automatisierung, Optimierung und Neuerfindung schafft.

Vor diesem Hintergrund haben der Lufthansa Innovation Hub, die Berliner Innovationseinheit der Lufthansa Group, und die Terminal 2 Gesellschaft des Flughafens München eine Absichtserklärung (MoU) unterzeichnet. Mit der Unterzeichnung bekunden beide ihre Absicht, durch gemeinsame Initiativen die Innovation in der Luftfahrtbranche voranzutreiben.

“Innovation in der Reiseindustrie ist eine gemeinschaftliche Aufgabe, die dem gesamten Ökosystem zukommt”, sagt Dr. Stefan Nothelfer, Senior Director und Leiter Corporate Venturing & Strategic Growth beim Lufthansa Innovation Hub. “Wir freuen uns darauf, mit der Terminal 2 Gesellschaft des Flughafens München zusammenzuarbeiten, um das Kundenerlebnis gemeinsam zu verbessern und den gesamten Reiseprozess zu optimieren.”

Robotik-Einsatz im Terminal 2 des Flughafens München

Ein konkretes Beispiel für das Vorantreiben von Innovation im Flughafenbetrieb durch Pilotprojekte ist die Zusammenarbeit mit dem Robotik-Start-up Ottonomy.

Seit dieser Woche sind zwei autonome Service-Roboter in den Bereichen der Gates und Gepäckausgabe im Terminal 2 des Flughafens München im Einsatz. Die Roboter sind darauf ausgelegt, verschiedene Aufgaben zu übernehmen, um reibungslose Kund*inneninteraktionen zu ermöglichen. Sie unterstützen Passagier*innen mit Informationen und bewerben die Dienstleistungen von Lufthansa Airlines.

Durch das Scannen eines QR-Codes auf dem Roboter mit ihrem Smartphone gelangen Reisende zu Chat-Assistenten für Self-Service-Optionen. Dort können sie Fluginformationen abrufen und Prozesse wie Umbuchungen oder Erstattungen eigenständig verwalten. Die Roboter liefern zudem wichtige Informationen zu flughafenbezogenen Themen wie Tax Refund und Lost and Found. Dank integrierter Behälter können die Roboter auch für den Warentransport eingesetzt werden – etwa künftig für die Verteilung von Wasserflaschen an Passagier*innen.

“Unser Ziel ist es, unseren Gästen das beste Reiseerlebnis in Europa zu bieten”, sagt Marcus Schnabel, Vice President Ground Operations Hub Munich. “Die Nutzung digitaler Lösungen ist für dieses Vorhaben von entscheidender Bedeutung, und wir freuen uns, als Pilotstandort für wegweisende Innovationen zu dienen.”

Ottonomy setzt seine Roboter weltweit an Flughäfen, in Krankenhäusern und für Auslieferungen auf der letzten Strecke zum/zur Kund*in ein. “Unsere Roboter, die mit Contextual AI arbeiten, ermöglichen es Unternehmenskunden, Innovationen voranzutreiben, bessere Kundenerlebnisse zu schaffen und die betriebliche Effizienz in der Luftfahrt zu steigern“, sagte Ritukar Vijay, CEO von Ottonomy. „Eine Partnerschaft mit zukunftsorientierten Branchengrößen wie der Lufthansa bringt diese Vision der Realität ein großes Stück näher.“

Das Pilotprojekt mit Ottonomy entstand im Rahmen von Startup Gate, der Venture-Clienting-Initiative der Lufthansa Group. Startup Gate verbindet Teams der Lufthansa Group mit hochmodernen Start-ups, um deren Technologien schnell zu adaptieren und schlanke sowie kosteneffiziente Kooperationen zu ermöglichen.

Nach dem KI-Hype: Diese vier Trends bleiben

KI entwickelt sich rasant weiter. Doch welche Trends bleiben und setzen sich wirklich durch? Diese Entwicklungen sollten Unternehmen 2025 weiterhin im Blick behalten.

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. Diese vier wichtigen KI-Trends werden uns 2025 maßgeblich begleiten.

Ob automatisierte Textproduktion, interaktive Chatbots oder KI-gestützte Analysen für Logistik und Finanzen: KIist längst im Tagesgeschäft angekommen. Diese Dynamik setzt sich 2025 fort. Dabei verschieben sich die Schwerpunkte zunehmend hin zu spezialisierten, effizienteren und flexibleren KI-Anwendungen.

Modular AI: Kleine Bausteine, große Wirkung

Modulare KI-Systeme werden zum Schlüssel für Unternehmen, die domänenspezifische Lösungen benötigen. Diese spezialisierten KI-Module sind genau auf einzelne Aufgabenbereiche zugeschnitten, etwa auf den Kundenservice oder auf Betrugserkennung im Bankwesen. Plug-and-Play-Architekturen beschleunigen hierbei die Implementierung: Statt monolithische Modelle einzuführen, integrieren Unternehmen bedarfsgerecht nur jene Module, die sie wirklich benötigen. Auf diese Weise lässt sich der zeitliche und finanzielle Aufwand für die Implementierung in Organisationen erheblich senken. Damit das Zusammenspiel verschiedener Module funktioniert, treiben Hersteller*innen und Standardisierungsgremien die Entwicklung einheitlicher APIs und Kommunikationsprotokolle weiter voran. Diese Interoperabilität ebnet den Weg für dynamische KI-Systeme, die sich je nach Anforderung in bestehende IT-Landschaften integrieren lassen.

Edge AI und On-Device Intelligence: Schneller zum Ergebnis

Während KI-Anwendungen bislang oft auf starke Cloud-Infrastrukturen angewiesen waren, verlagert sich die Intelligenz nun zunehmend an den Netzwerkrand. Dadurch können Daten in Echtzeit analysiert werden, um schnell fundierte Entscheidungen zu treffen. Gerade in sensiblen Bereichen wie der medizinischen Bildgebung oder in Branchen mit hoher Zeitkritikalität, beispielsweise bei autonomen Fahrzeugen, minimiert eine Edge-basierte KI-Analyse Latenzzeiten und ist somit wettbewerbsentscheidend. Parallel dazu treten neue, energieeffiziente KI-Chips wie neuromorphe Prozessoren oder TPUs (Tensor Processing Units) auf den Plan. Sie ermöglichen leistungsstarke KI-Anwendungen in Systemen mit begrenztem Platz oder Energiebudget – ein wichtiger Fortschritt für Wearables und sogar Satelliten.

Foundation Models: Optimieren statt komplett neu trainieren

Große KI-Basismodelle, sogenannte Foundation Models, haben 2024 ihren Nutzen in zahlreichen Branchen bewiesen. 2025 rücken jedoch kosten- und ressourcenschonende Optimierungen stärker in den Vordergrund. Verfahren wie Parameter-effizientes Tuning oder LoRA (Low-Rank Adaptation) ermöglichen es, aus umfassenden Basismodellen spezialisierte Teilmodelle zu erzeugen, ohne sie von Grund auf neu trainieren zu müssen. Kleinere, spezialisierte Modelle behalten die Leistungsfähigkeit der großen Systeme oft zu einem Bruchteil der nötigen Rechenleistung. Das senkt nicht nur die Kosten, sondern trägt auch zur Nachhaltigkeit bei, da der Energieverbrauch bei Training und Einsatz von KI zunehmend kritisch hinterfragt wird. Darüber hinaus entstehen lokalisierte Modelle, die speziell auf bestimmte Regionen oder Sprachen zugeschnitten sind und dadurch genauere Ergebnisse liefern.

Fortschrittliche KI-Agenten: Mehr Kontext, mehr Kollaboration

KI-Agenten erreichen 2025 eine neue Evolutionsstufe und können nuancierte Kontexte immer besser erfassen. Das steigert die Personalisierung von Interaktionen im Kund*innenservice, Gesundheitswesen oder Bildungsbereich. Zugleich werden Self-Improving Agents immer wichtiger: Sie enthalten eingebaute Feedbackschleifen, lernen aus ihren Erfahrungen und optimieren ihre Fähigkeiten – ganz ohne Eingreifen von außen. Darüber hinaus setzt sich das Konzept der Multi-Agent Collaboration durch. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um komplexe Probleme wie logistische Planungen oder den Ablauf bei Großschadenslagen effizient zu lösen.

Fazit

Das laufende Jahr wird wie das letzte – und vermutlich wie noch viele kommende Jahre – von künstlicher Intelligenz geprägt sein. Zwar müssen wir bei Aspekten wie Datensicherheit, Transparenz und dem Schutz persönlicher Informationen weiterhin aufmerksam bleiben, doch gleichzeitig eröffnen sich durch KI ganz neue Chancen für Innovation, Effizienz und Wachstum. Schon jetzt arbeiten Unternehmen, Regierungen und Forschungseinrichtungen verstärkt Hand in Hand, um Standards zu definieren und verantwortungsvolle Lösungen zu entwickeln. Damit können wir das enorme Potenzial dieser Technologie nutzen und zugleich sicherstellen, dass Fortschritt und Vertrauen im Einklang stehen.

Der Autor Ramprakash Ramamoorthy ist Director of AI Research bei Zoho.

Generative KI – Chancen für Startups

Wie Startups mit drei Tipps die Kosten und Performance für ihren KI-Case optimieren können.

Das deutsche KI-Startup-Ökosystem befindet sich 2025 weiter im Gründungsboom. Nie gab es mehr KI-Gründer in Deutschland und alleine im vergangenen Jahr wuchs die Zahl der KI-Startups um 35 Prozent. Auch für Investoren bleibt KI eines der vielversprechendsten Themen. Sie investierten 2024 fast 200 Millionen mehr in deutsche KI-Jungunternehmen als im Vorjahr. Vor allem deutsche KI-Startups im B2B-Bereich mit branchenspezifischen Lösungen für die Fertigung, Logistik und das Gesundheitswesen haben aktuell ausgezeichnete Wachstumschancen. Sie können von einer engen Vernetzung mit dem Mittelstand und führenden Forschungseinrichtungen in Deutschland profitieren. Typische KI-Anwendungsfelder von aufstrebenden deutschen Startups wie BlueAvenir, PlanA, Smart Reporting oder nnamu liegen dabei u.a. in der Softwareentwicklung, Sprach- und Bilderkennung oder datenbasierten Analyseverfahren zur Entscheidungsunterstützung.

KI-Chancen und die häufigsten Hürden

Während die Gesamtfinanzierung für KI-Projekte wächst, scheitern in der Praxis vielversprechende Ideen von Startups aber auch immer wieder am konkreten Business Case. Langfristig können sich insbesondere unterschätzte Kosten und eine schwache Performance der Anwendungen wie ein Bremsklotz auswirken. Die Nutzung von Sprachmodellen ist dank API-basierten Diensten sehr einfach geworden, dennoch können sich hier bei großen Volumina und ungeschickter Modell-Wahl schnell höhere Kosten aufsummieren. Gleichzeitig spielt die Performance des KI-Systems eine wichtige Rolle für eine langfristige Profitabilität. So führen besonders hohe Latenzzeiten bei der Model-Inference zu trägeren Systemen, die Nutzeranfragen nicht schnell genug verbreiten und die Attraktivität der Anwendung erheblich mindern.

Gerade Startups setzen oft auf die Cloud, da sie unabhängig vom technischen Hintergrund einfachen Zugang zu KI und die nötige Flexibilität ermöglicht. Drei innovative Methoden erweisen sich in der Cloud als besonders hilfreich, um eine optimale Balance zwischen Leistungsfähigkeit, Kosten und Nutzerfreundlichkeit für die Umsetzung des eigenen KI-Anwendungsfalls zu finden. So kann jeder Gründer seine KI-Ideen schnell, kosteneffizient und sicher umsetzen.

KI-Modellauswahl: Kleiner, aber schneller

Für Startups ist es entscheidend, das richtige KI-Modell für ihren Anwendungsfall zu wählen, um Kosten und Leistung optimal auszubalancieren. Anbieter wie Anthropic, AI21 Labs, Meta, Cohere, Mistral und Amazon bieten Modelle in verschiedenen Größen an – kleinere Varianten sind oft günstiger und reagieren mit kürzerer Antwortzeit. Nach einer ersten Validierung mit einem leistungsstarken Modell können Startups Tools wie Amazon Bedrock Evaluations nutzen, um herauszufinden, welches Modell in welcher Größe ähnliche Ergebnisse bei geringeren Kosten oder höherer Geschwindigkeit liefert. Diese Evaluierungen helfen dabei, die Leistungsfähigkeit und Effizienz zu beurteilen, indem Metriken wie semantische Robustheit und Genauigkeit bei der Informationsabfrage analysiert werden. Durch eine Kombination aus automatisierten Bewertungen mit Large Language Models (LLMs) und menschlicher Prüfung können Startups die beste Balance zwischen Leistung, Kosten und Geschwindigkeit für ihre individuellen Bedürfnisse finden.

Prompt Caching: Zwischenspeicherung für wiederkehrende Anfragen

Eine weitere smarte Methode, um die Antwortzeiten von KI-Modellen zu verkürzen und Kosten zu senken, ist das Prompt-Caching. Wenn ein digitaler Assistent sich bei jeder Frage immer wieder die gleichen Grundinformationen durchlesen müsste, dann wäre das extrem ineffizient. Genau hier setzt das Prompt-Caching an und speichert feste Teile des Prompts, wie grundlegende Anweisungen für das LLM, direkt in der Inferenz-Hardware zwischen. Nur die variablen, nutzerspezifischen Daten, die sich von Aufruf zu Aufruf verändern, werden bei jeder Anfrage neu übermittelt. Das spart nicht nur Rechenleistung, sondern sorgt auch für schnellere Antworten – ideal für Anwendungen wie Chatbots oder personalisierte KI-Assistenten, die häufig wiederkehrende Anfragen verarbeiten. Mit Amazon Bedrock lässt sich diese Technik einfach nutzen, indem das Caching und das Setzen von Cache-Checkpoints automatisch verwaltet werden können. Sobald das Caching aktiviert ist, übernimmt der Service das gesamte Cache-Management automatisch. So lassen sich bis zu 90 Prozent kosteneffiziente KI-Anwendungen mit minimalem Konfigurationsaufwand realisieren.

Model Distillation: KI-Wissen auf das Wesentliche fokussieren

Eine dritte bewährte Option ist Model Distillation. Das Prinzip ist einfach und kann vereinfacht als ein intelligenter Wissenstransfer in der Welt der KI beschrieben werden. Also so, als ob ein erfahrener Lehrer (ein großes, leistungsstarkes KI-Modell) seinem Schüler (einem kleineren, schnelleren Modell) die wichtigsten Konzepte beibringt. Dabei nutzt dieser Prozess synthetische Trainingsdaten, die auf realen Anwendungsbeispielen basieren. Das Ergebnis ist ein kompakteres Modell, das für einen spezifischen Anwendungsfall ähnlich gute Ergebnisse liefert wie das größere Modell, dabei aber deutlich schneller und kostengünstiger arbeitet. Destillierte Modelle in Amazon Bedrock können bis zu fünfmal schneller arbeiten und die Kosten um bis zu 75 Prozent senken im Vergleich zu den Originalmodellen – bei Genauigkeitsverlust von weniger als zwei Prozent.

Fazit

Erfolgreiche KI-Lösungen können mit der Cloud kosteneffizienter und performanter umgesetzt werden. Das erfordert zwar ein wenig technisches Know-how, aber die Cloud reduziert die Einstiegshürden erheblich und ermöglicht es auch kleineren Unternehmen, mit drei bewährten Methoden das KI-Potenzial effektiver auszuschöpfen. Startups haben mit der Cloud die maximale Flexibilität, um entweder von den leistungsfähigsten vortrainierten LLMs zu profitieren oder alternativ eigene LLMs mit maßgeschneiderter Infrastruktur zu entwickeln bzw. auf fertige Dienste mit integrierter generativer KI zuzugreifen.

Der Autor Constantin Gonzalez ist Principal Solutions Architect bei Amazon Web Services (AWS) in München.
Die Autorin 
Jennifer Grün ist Senior Specialist - Machine Learning bei AWS in München.

So schafft KI neue CEO-Realitäten

Künstliche Intelligenz (KI) ist in der Führungsebene angekommen, doch welche Konsequenzen hat das für CEOs? Eine Studie enthüllt Eingeständnisse deutscher und internationaler CEOs zum Thema KI.

Der aktuelle „Global AI Confessions Report: CEO Edition" der KI-Plattform Dataiku enthüllt Eingeständnisse deutscher und internationaler Führungskräfte, die hinsichtlich KI einer neuen Realität gegenüberstehen. Wichtige Insights aus der Studie:

 

  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.
  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • Mit 62 Prozent bzw. 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit von KI geht.
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.

Für die Studie, die von The Harris Poll durchgeführt wurde, wurden im Januar und Februar 2025 über 500 CEOs in den USA, Großbritannien, Frankreich und Deutschland befragt. Die Unternehmen der insgesamt 100 befragten deutschen CEOs rangieren bei einem Jahresumsatz von mehr als 250 Millionen Euro und eine Unternehmensgröße von mehr als 500 Mitarbeitenden.

Der Bericht enthüllt: Die KI-Strategie ist zum entscheidenden Faktor für das Überleben von Unternehmen geworden. Die Ergebnisse belegen zudem, dass die Konsequenzen des Einsatzes von KI auch auf höchster Entscheiderebene angekommen sind. 

KI kommt im Vorstand an

Laut Aussagen deutscher Geschäftsführer stellt KI die Rolle der Entscheidungsfindung auf Vorstandsebene zunehmend in Frage. Zu den wichtigsten Ergebnissen gehören: 

  • 93 Prozent der deutschen CEOs sind der Meinung, dass sie davon profitieren würden, ein aktuelles Vorstandsmitglied durch einen KI-Experten zu ergänzen oder zu ersetzen.
  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.

KI-Strategie: Übernahme von Kernkompetenzen

Auch auf den darauf folgenden Rängen zeichnet sich ab, dass Künstliche Intelligenz das Berufsprofil der Führungsebene deutlich wandeln kann:  

  • 90 Prozent der deutschen CEOs sind der Meinung, dass KI einen besseren Strategieplan entwickeln kann als ein Mitglied ihres Führungsteams (Vizepräsidenten bis zur Vorstandsebene).
  • 49 Prozent der CEOs deutscher Unternehmen schätzen, dass sie 3–4 Teammitglieder durch KI ersetzen könnten, um strategische Planung zu betreiben. Ganze 13 Prozent gaben an, dass sie sogar 7 oder mehr Führungskräfte für die gleiche Aufgabe ersetzen könnten.

Keine KI-Strategie ist allerdings auch keine Antwort, denn

  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • 76 Prozent der deutschen CEOs sind der Meinung, dass sie Gefahr laufen, ihren Job zu verlieren, wenn sie nicht innerhalb von 2 Jahren messbare KI-getriebene Geschäftsgewinne erzielen.

KI als Kernkompetenz zukünftiger CEOs

Führungskräfte müssen sich laut der Umfrage auf dem Jobmarkt zukünftig anders aufstellen. KI-Kompetenz gilt als “Must-Have”, was auch aus dem Berufsalltag deutscher CEOs hervorgeht.

  • 31 Prozent der deutschen CEOs sind der Meinung, dass Erfahrung in der Umsetzung einer erfolgreichen KI-Strategie oder deren Implementierung in 3–4 Jahren eine der wichtigsten Kompetenzen sein wird, nach denen Vorstände bei der Bewertung eines potenziellen Geschäftsführers suchen werden.
  • 82 Prozent der deutschen CEOs geben an, dass ihre direkte Beteiligung an KI-bezogenen Entscheidungen im vergangenen Jahr zugenommen hat.
  • 70 Prozent der deutschen CEOs geben an, an mehr als der Hälfte der KI-Entscheidungen ihres Unternehmens beteiligt zu sein.

Die „KI-Commodity-Falle“ und KI-Washing: Blinde Flecken der Geschäftsführung

Trotz zunehmender Abhängigkeit von KI sind sich viele CEOs der Gefahren schlecht umgesetzter KI-Strategien in gefährlicher Weise nicht bewusst.

  • 87 Prozent der CEOs tappen weltweit in die „KI-Falle“ und sind zuversichtlich, dass KI-Standardagenten genauso effektiv sein können wie maßgeschneiderte Lösungen für hochgradig nuancierte vertikale oder domänenspezifische Geschäftsanwendungen.
  • CEOs deutscher Unternehmen gehen im internationalen Vergleich mit 39 Prozent am ehesten davon aus, dass es bei eigenen KI-Initiativen mehr um die Optik als um die Wirkung geht. Dieser Umstand nennt sich auch “AI Washing” und zielt darauf ab, KI-Innovation vorzuspielen, anstatt einen bedeutenden Mehrwert zu schaffen.

Worauf deutsche CEOs allerdings vergleichsweise viel Wert legen, sind Kostenkontrolle und Skalierbarkeit von KI-Lösungen. Mit 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs (62 Prozent) an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit als Kernattribute innerhalb ihres Rahmens für die regelmäßige Bewertung der Effektivität von KI-Analysen, -Modellen und -Anwendungen geht.

KI-Governance und regulatorische Unsicherheit

Während sich die Einführung von KI beschleunigt, schaffen schlechte Governance und regulatorische Unsicherheit erhebliche Hindernisse:

  • 25 Prozent der deutschen CEOs geben an, dass sich ein KI-Projekt aufgrund regulatorischer Unsicherheiten verzögert hat, während 35 Prozent zugeben, dass ein Projekt aus solchen Umständen abgebrochen oder aufgegeben wurde. 
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.
  • 94 Prozent der CEOs vermuten weltweit, dass Mitarbeitende GenAI-Tools wie ChatGPT, Claude und Midjourney ohne Genehmigung des Unternehmens verwenden (bekannt als „Schatten-KI“) und damit ein massives Governance-Versagen innerhalb von Organisationen aufdecken.

Den vollständigen „Global AI Confessions Report: CEO Edition“ findest du hier

Acrylic Robotics: die Zukunft des Kunstmarkts?

Die Gründerin und Künstlerin Chloë Ryan will mit Acrylic Robotics den Kunstmarkt neu definieren: Mithilfe eines Roboterarms, der Gemälde Pinselstrich für Pinselstrich rekonstruiert, schlägt das Start-up die Brücke zwischen traditioneller Kunst und moderner Technologie, um Kunstwerke einem breiten Publikum zugänglich zu machen.

Kunst skalierbar machen
Die in Montreal ansässige Acrylic Robotics-Gründerin und CEO Chloë Ryan, selbst Künstlerin, hatte die Idee aus einer persönlichen Erfahrung heraus. Ein Gemälde zu schaffen, erfordert viel Zeit; und am Ende kann das Werk nur einmal verkauft werden. Inspiriert von der Skalierbarkeit der Musik- und Buchbranche entwickelte Chloë Ryan ein Konzept, mit dem Kunstwerke präzise reproduziert werden können – ohne an Qualität oder künstlerischem Anspruch zu verlieren. Gemeinsam mit Walker Singleton, Head of Engineering des Start-ups, entstand so ein interdisziplinärer Ansatz, der Robotik, Softwareentwicklung und mechanische Präzision vereint.

Der Roboter: Präzision in jedem Pinselstrich
Das Herzstück von Acrylic Robotics ist ein Roboterarm, der Gemälde detailgetreu reproduzieren kann. Der Prozess unterscheidet sich je nach Ursprung des Kunstwerks. Digitale Kunstwerke, die auf einem Tablet oder Computer erstellt wurden, können direkt an den Roboter übermittelt werden, da Daten wie Pinselrichtungen, Druckstärke und Farbwahl bereits digital vorliegen. Analoge Gemälde erfordern hingegen eine zusätzliche Analyse. Hier kommt ein speziell trainiertes KI-Modell zum Einsatz, das die wesentlichen Parameter berechnet, um eine möglichst präzise Reproduktion zu erzielen. Besonders wichtig ist es Acrylic Robotics, den Künstler kontinuierlich in den Prozess einzubeziehen. Es geht nicht darum, den kreativen Schaffensprozess zu ersetzen, sondern ihn zu ergänzen und weiterzuentwickeln.

Kunst für alle: Ein Service für Künstler und Käufer
Acrylic Robotics bietet seine Technologie Künstlern als Dienstleistung an. Über die Website können Künstler eine Zusammenarbeit anfragen, bei der ihre Werke in limitierter Auflage reproduziert werden. Käufer erhalten dadurch hochwertige Acrylreproduktionen, ohne den Wert des Originals zu schmälern. Das Konzept verbindet Exklusivität mit breiterer Zugänglichkeit und positioniert sich als innovative Lösung im Kunstmarkt.

Aussichten der eSIM-Technologien: Was die Zukunft für uns bereithält

Start-ups und Technikfans kennen das Phänomen eSIM bereits – diese Technologie ersetz seit 2019 die herkömmlichen SIM-Karten nach und nach. Die aktuellen Möglichkeiten und Trends von eSIM sind jedoch noch unbekannt. Lesen Sie weiter, wenn Sie sich für diese innovative Art der Mobilfunkverbindung interessieren. Erfahren Sie, wie die Yesim-App die globale Abdeckung revolutioniert hat und welche Möglichkeiten Sie erwarten können.

Das eSIM-Phänomen: Geschichte und Herausforderungen

Im Jahr 2025 verblüffen eingebettete SIMs durch ihre Funktionalität. Nutzer können zwischen einer Ein-Länder-Verbindung, einem Pay-As-You-Go-eSIM-Datenplan mit mobilen Daten aus 140 Ländern, unbegrenzten Verbindungsoptionen, kostenlosem VPN und vielen weiteren Zusatzfunktionen wählen. Ständige Herausforderungen stehen hinter dem aktuellen Trend.

2010er: Das Konzept taucht auf

In den 2010er Jahren war das Konzept der eSIM mit dem Bereich des Internets der Dinge verbunden. Die Idee war einfach: „Was wäre, wenn wir SIM-Chips direkt in Geräte einbauen könnten, anstatt SIM-Karten zu kaufen?“

In der Tat ist eine eingebettete SIM-Karte ein winziger Chip, der in das Gerät eingesetzt wird und wie herkömmliche SIM-Karten eine Verbindung zu den Mobilfunkmasten herstellen kann. Die Idee wurde vom Global System for Mobile Communications genehmigt.

2011-2015: Die ersten Implementierungen

Bekannt ist, dass eSIM als Technologie für Industriegeräte begann. Auto-Telematik und Industriegeräte nutzten bereits eSIM-Chips für eine einfachere Internetverbindung und Datenüberwachung. Die Öffentlichkeit war jedoch nicht so sehr an dem Konzept interessiert.

2017: Das erste eSIM-Smartphone

2017 brachte Google das Google Pixel 2 heraus — das erste Smartphone mit eSIM-Kompatibilität. Google als innovativer Hersteller bemühte sich darum, der erste Hersteller mit einer revolutionären Verbindungsmethode zu sein.

2018 und folgende Jahre: Breitere Implementierung

Im Jahr 2018 veröffentlichte Apple die iPhones XR und XS — die ersten iOS-Geräte mit eSIM-Unterstützung. Seitdem haben sich eingebettete SIMs zu einem weltweiten Trend entwickelt und die Öffentlichkeit angezogen. Seitdem und seit 2025 wird die Technologie erweitert und bietet immer mehr Funktionen.

Was können wir von der eSIM-Branche in den nächsten Jahren erwarten?

Es wird erwartet, dass der weltweite eSIM-Markt im Jahr 2032 ein Volumen von 6,2 Milliarden USD erreichen wird. Nordamerika ist zwar die größte Industrieregion, aber auch in der Europäischen Union werden eingebettete SIMs immer beliebter. Sehen wir uns die weiteren Prognosen und zu erwartenden Merkmale an.

Der wachsende Markt für internationale eSIMs

Virtuelle SIM-Karten für ein einzelnes Land sind zweifelsohne bequemer als herkömmliche SIM-Karten. Dennoch schöpfen sie nicht das gesamte Potenzial der Technologie aus.

Der globale Anbieter Yesim hat bereits 10 regionale und 5 globale eSIM-Pläne eingeführt. Diese eingebetteten SIM-Karten können automatisch zwischen Mobilfunkanbietern in mehreren Regionen (bis zu 148 Ländern) wechseln. Der Nutzer kauft und aktiviert den Tarif einmal, und der Anbieter stellt die Internetverbindung in allen ausgewählten Ländern her. Dieser Ansatz ist kostengünstig und viel bequemer, da die Nutzer nicht zwischen den eSIM-Tarifen wechseln müssen.

Die Beliebtheit des „Pay-as-You-Go“-Formats

Ein weiterer Ansatz, der sich bei allen Anbietern durchsetzt, ist das Preismodell „Pay-as-You-Go“. Anstelle von Prepaid-Tarifen mit einem bestimmten Datenvolumen funktioniert dieses Format ständig und verbindet die Nutzer in mehreren Regionen mit dem Internet. Im Grunde lädt der Kunde sein Guthaben auf, und der Anbieter schaltet das Internet im Ausland entsprechend dem lokalen Preis frei. Auf diese Weise zahlen die Kunden nur für das, was sie nutzen.

Die Technologie ist noch nicht so weit verbreitet, da ihre Umsetzung kompliziert ist. Dennoch setzen mehrere Anbieter sie bereits 2025 ein.

Vorherrschaft der eSIM gegenüber herkömmlichen Verbindungsformen

Eingebettete SIMs ersetzen schon jetzt herkömmliche SIM-Karten und der Trend wird immer größer. Studien aus Nordamerika zeigen, dass sich die Zahl der Geräte mit eSIM-Anschluss von 2023 bis 2024 fast verdoppelt hat (310 Millionen auf 598 Millionen). SIM-Karten werden zweifelsohne auch 2025 die wichtigste Verbindungsmethode bleiben. Gewohnheit und Beliebtheit sind die Hauptgründe dafür, wobei es Menschen gibt, die sich generell nicht sehr für Technik interessieren, und deshalb finden sie das Thema eSIM oft kompliziert.

Der Anstieg der eSIM-Nutzer zeigt jedoch, dass sich die Situation ändert. In den 2030er Jahren könnten virtuelle SIM-Karten die Hauptmethode der Datennutzung in Mobiltelefonen werden.

Eingebettete SIMs im IoT

Im Jahr 2025 sind eingebettete SIM-Karten nicht nur auf Smartphones und Tablets beschränkt. Smartwatches, die nach 2020 hergestellt werden, unterstützen diese Technologie bereits. Außerdem unterstützen mehrere Autos, darunter die Audi A- (3, 4, 5) und Q- (2 und 7) Serien, virtuelle SIMs.

Dies deutet auf eine breitere Nutzung der Technologie hin. Höchstwahrscheinlich wird die eSIM ein primäres Mittel zur Verwaltung von intelligenten Haushalten und Geräten, städtischen Technologien und Industrieanlagen sein.

Zunehmender Wettbewerb

Da die Zahl der Anbieter steigt, brauchen die Unternehmen dauerhafte Weiterentwicklungen und Innovationen. Das Angebot von Prepaid-eSIMs reicht nicht aus, um im Wettbewerb zu bleiben. Viele Anbieter wie Yesim bieten mehrere Funktionen an:

  • unbegrenztes Internet
  • kostenloser VPN-Zugang für Kunden
  • Treueprogramme
  • regionale und globale SIM-Karten
  • Datensparende Browser und Anwendungen
  • virtuelle Nummern auf Anfrage
  • automatische eSIM-Aktivierung in Anwendungen

Dies ist nur ein Teil der zusätzlichen Funktionen, die von modernen Anbietern angeboten werden. Der Wettbewerb ist ein positives Merkmal, da die Branche dank der eSIM-Unternehmen expandiert.

Fazit

Der beste Weg, alle Möglichkeiten zu erkunden, ist, die Technologie selbst auszuprobieren. Mit einem Schnuppertarif für 0,50 € können Sie bereits jetzt 500 MB für internationale Verbindungen nutzen. Entscheiden Sie sich für eSIM bei Ihrer nächste Reise ins Ausland und halten Sie sich über die neuesten Trends in der virtuellen SIM-Branche auf dem Laufenden.

LegalTech-Trends 2025

Der Legal-Markt steht an einem Wendepunkt: Innovative, KI-basierte Tools transformieren die Branche und eröffnen neue Möglichkeiten. Diese sechs Trends werden die Branche verändern und prägen.

1. „Agentic AI“ für Legal Workflows

Künstliche Intelligenz (KI) ist das Herzstück der LegalTech-Zukunft. Anwendungen unterstützen schon heute Kanzleien und Unternehmen dabei, Dokumente zu analysieren und komplexe rechtliche Fragestellungen mit automatischer Prüfung von Gerichtsurteilen zu bearbeiten. KI ist dabei jedoch nur ein einzelnes Feature einer ganzheitlichen Legal-Workflow-Plattform. Aber ein wichtiges. Mit KI werden zeitintensive Aufgaben automatisiert, sodass Anwält*innen mehr Zeit für strategische Tätigkeiten haben und Legal Assistants von administrativen Aufgaben entlastet werden.

Gleichzeitig entstehen durch KI neue Herausforderungen. Digitale Souveränität, Datenschutz, Bias in Algorithmen und die Qualität der automatisierten Entscheidungsprozesse sind Themen, die sowohl Kanzleien, Rechtsabteilungen als auch Gesetzgeber beschäftigen werden. Da Datenschutz und Privacy i.d.R. bei europäischen und deutschen LegalTech-Anbieter*innen ein stärkerer Teil der Software-Anbieter DNA sind, haben sie einen Vorteil gegenüber US-amerikanischen Hersteller*innen.

2. Unified Contract Management & Enterprise Legal Management

Beim Contract & Matter Management zeichnet sich eine große Veränderung ab – hin zu modernen, flexiblen, cloudbasierten Contract- und Matter-Management-Tools. Durch höhere Anforderungen der Fachbereiche hinsichtlich der Geschwindigkeit bei der Bearbeitung von Rechtsfällen, nimmt die Bedeutung von Unternehmensjuristen weiter zu. Während sie früher primär als Berater agierten, übernehmen sie mittlerweile eine zunehmend strategische Rolle. Hierbei helfen ihnen ganzheitliche Enterprise Legal Management Software Lösungen die sowohl bei der Anfrage, Annahme und effizienten Durchführung von Rechtsfällen unterstützen. Die neue Rolle der Inhouse-Jurist*innen erfordert nicht nur technologische Kompetenz, sondern auch betriebswirtschaftliches Verständnis und die Fähigkeit, mit anderen Unternehmensbereichen zusammenzuarbeiten.

3. Legal Front-Door & Self-Service Legal Tools

In der IT wird seit vielen Jahren das „Shift to left“ Prinzip verfolgt. Jetzt wird es verstärkt auch in Legal Prozessen genutzt. Das Prinzip zielt darauf ab, die Effizienz über Self-Service Möglichkeiten zu steigern, Reaktionszeiten zu verkürzen und Kosten zu senken, indem Probleme näher an ihrer Quelle – also dem Mandanten, Anwender bzw. dem Fachbereich gelöst werden. Eine Legal Front Door ist im Grunde eine digitale Rezeption, eine zentrale Plattform, die es den Mitarbeitenden eines Unternehmens oder Mandant*innen einer Kanzlei ermöglicht, auf rechtliche, standardisierte Dienstleistungen wie NDA-Erstellung, Digitale Mandatsannahme, Compliance Anleitungen und Legal Ressourcen zuzugreifen.

4. Compliance Analytics: Risiken in rechtlichen Dokumenten erkennen und beheben

Die Analyse von Verträgen und Schriftgut ist zentraler Bestandteil der modernen Rechtspraxis. Compliance Analytics ermöglicht es Jurist*innen Risiken in Verträgen und Dokumenten zu analysieren, vorherzusagen und Verstöße proaktiv und automatisiert zu korrigieren. Durch datenbasierte Analysen können potenzielle Verstöße gegenüber Unternehmensrichtlinien wie Haftungsgrenzen, AGB-Compliance identifiziert und über automatisierbare Workflows angepasst bzw. Compliance-Verstöße automatisch behoben werden. Diese präventive Herangehensweise bietet nicht nur einen finanziellen Mehrwert, sondern reduziert auch Haftungsrisiken und stärkt die Wettbewerbsfähigkeit von Kanzleien und Rechtsabteilungen.

5. Von der/vom Jurist*in zum/zur LegalTech-Expert*in

Die Automatisierung repetitiver Aufgaben, wie die Überprüfung von Dokumenten oder Durchführen von Recherchen, hat tiefgreifende Auswirkungen auf die Arbeitsweise von Jurist*innen. Während Junior-Anwält*innen früher oft mit derartigen Tätigkeiten betraut wurden, können sie sich heute dank moderner Technologien auf strategischere Aufgaben konzentrieren. Das beschleunigt ihre berufliche Entwicklung und verändert traditionelle Karrieremodelle. Dabei sollte jedoch sichergestellt sein, dass die notwendigen praktischen Erfahrungen gesammelt werden können, denn nur so lässt sich eine fundierte Expertise aufbauen. Zwar bleibt das juristische Wissen weiterhin wichtig, aber die Fähigkeit die richtigen juristischen Fragen zu entwickeln und zu stellen wird in Zukunft wichtiger sein als „nur“ juristisches Wissen and geeignete Antworten zu haben. Auch die juristische Ausbildung verändert sich, inkl. der Nutzung moderner KI-basierten LegalTech-Tools zur Recherche, Analyse und Erstellung von Dokumenten. Universitäten und Kanzleien passen ihre Ausbildungsprogramme an, um die nächste Generation von Jurist*innen auf die Anforderungen des digitalen Zeitalters vorzubereiten.

6. Investitionen in LegalTech

Laut einer aktuellen Umfrage von JP Morgan unter Unternehmensjurist*innen haben bei 71 Prozent der Rechtsabteilungen die Investition in LegalTech-Tools eine hohe bis sehr hohe Bedeutung. Aber nur 32 Prozent der Rechtsabteilungen haben LegalTech-Tools in ihren Budgets berücksichtigt. 80 Prozent gaben an, KI-LegalTech-Tools im laufenden Jahr einführen zu wollen – wollen dafür aber nur durchschnittlich 13 Prozent des gesamten Legal Budget ausgeben. Das belegt, dass die Investitionen in LegalTech-Tools zwar weiter zunehmen, die Diskrepanz zwischen KI-Ambitionen und Finanzierung jedoch bleibt. Die Legal-Innovationsfähigkeit ist also abhängig von der Legal-Investitionsfähigkeit.

Fazit

Die LegalTech-Trends zeigen, wie Technologie die juristische Arbeit verändert. Da generative KI trotz heutiger multi-modaler Fähigkeiten wie Text, Bild und Audio vor allem die Analyse und Erstellung von Text hervorragend beherrscht, hat der Legal-Bereich quasi eine Pionierstellung in der modernen KI-Bewegung. Der Rechtsmarkt ist eine „Text First“-Industrie und hervorragend geeignet, um die Innovationen von generativer KI zu beschleunigen. Von KI-gestützter Effizienzsteigerung über datenbasierte Risikoanalysen bis hin zur Automatisierung von Routineaufgaben: Der Legal-Markt wird nicht nur digitaler, sondern auch dynamischer. Für Kanzleien und Unternehmensjurist*innen bringt das einerseits neue Möglichkeiten mit sich, andererseits aber auch die Notwendigkeit, sich weiterzuentwickeln. Die Herausforderungen sind vielfältig, doch eines steht fest: Die Zukunft des Rechtsmarkts gehört denen, die technologische Innovationen nicht nur akzeptieren, sondern aktiv mitgestalten.

Der Autor Oliver Bendig ist CEO des LegalTech-Anbieters stp.one

Nachhaltigkeit: Sinnorientierung statt Image-PR und Greenwashing

Im Interview: Co-Gründer Günther Reifer vom Terra Institute.

Als Experten mit langjähriger Erfahrung und Kompetenz in der Beratungstätigkeit gründeten Evelyn Oberleiter und Günther Reifer vor 10 Jahren gemeinsam das Terra Institute: Ein Beratungsunternehmen mit Schwerpunkt in Geschäftsmodellinnovation, Nachhaltigkeitsmanagement, Produktentwicklung, Kreislaufwirtschaft und sinnorientiertem, transformativem Leadership. Das Terra Institute hat heute 25 Mitarbeiter in Deutschland, Österreich und Italien.

Im Interview zum Thema Nachhaltiges Wirtschaften: Terra Institute-Co-Gründer Günther Reifer.


Heutzutage macht das Thema Nachhaltigkeit einen großen Teil vom Image eines Unternehmens aus. Wer nicht nachhaltig ist, geht nicht mit dem Puls der Zeit. Doch was ist überhaupt mit Nachhaltigkeit gemeint und wie kann sie in einem Unternehmen umgesetzt werden?

Nachhaltigkeit hat verschiedene Definitionen. Die gängigste besagt: „Nachhaltigkeit gewährleistet, dass zukünftige Generationen nicht schlechter gestellt sind, ihre Bedürfnisse auf der Erde zu befriedigen als die gegenwärtig lebende Generation.“ Für ein produzierendes Unternehmen bedeutet das konkret: Die Verwendung von nachwachsenden Rohstoffen, ressourcenschonende Produktion, Vermeidung von Müll, ein möglichst geringer CO2-Ausstoß und im besten Fall ein recyclebares Endprodukt. Wenn ein Produkt all diese Kriterien erfüllt, kann es sich ökologisch nachhaltig nennen.

Ein Beispiel: Ein T-Shirt aus 100 Prozent Bio-Baumwolle, dessen Aufdruck jedoch giftige Chemikalien enthält, ist keineswegs nachhaltig. Es ist wichtig, dass wir den gesamten Produktionsprozess betrachten – vom Design zum finalen Produkt bis zur Rückführung in den Wertstoffkreislauf.

Wenn ein Unternehmen ein ökologisch nachhaltiges Produkt herstellt, ist dann das gesamte Unternehmen nachhaltig?

Noch lange nicht. Nachhaltigkeit steht nämlich auf drei Standbeinen: Umwelt, Gesellschaft und Wirtschaft. Neben den ökologischen Aspekten bestimmen also noch soziale und ökonomische Faktoren, inwieweit ein Unternehmen nachhaltig ist. Die soziale Komponente widmet sich dabei in erster Linie dem Wohlergehen von Mensch und Gesellschaft. Für Mitarbeiter des Unternehmens bedeutet das zum Beispiel ein fairer Lohn, geregelte Arbeitszeiten und Pausen sowie die Möglichkeit auf persönliche und berufliche Weiterentwicklung. Insbesondere der Aspekt Schulungen spielt wiederum eine wichtige Rolle für die ökologische Nachhaltigkeit des Unternehmens.

Um ökologische Nachhaltigkeit ganzheitlich im Unternehmen zu etablieren, muss zunächst ein gemeinsames Bewusstsein dafür geschaffen werden. Bei Führungskräften genauso wie bei allen Mitarbeitern. Durch regelmäßige Coachings der Mitarbeiter – sei es persönlich oder digital – werden Nachhaltigkeit und Klimaschutz zur Angelegenheit des gesamten Unternehmens. Alle sind auf dem neuesten Stand und ziehen am selben Strang.

Was sind die ökonomischen Faktoren, die ein Unternehmen nachhaltig machen? Und stehen diese nicht im Konflikt mit den ökologischen Aspekten der Nachhaltigkeit?

Die meisten denken wahrscheinlich, dass sich Umwelt und Wirtschaft von vorneherein ausschließen. Das stimmt so jedoch nicht. Fakt ist: Nur ein Unternehmen, was auch ökonomisch nachhaltig ist, wird langfristig bestehen bleiben und so seinen Beitrag für eine bessere Zukunft leisten können. Die Umstellung auf eine ökologisch nachhaltige Produktion ist dabei kein Verlustgeschäft. Wenn Sie zum Beispiel alles regional produzieren statt einzelne Produktionsprozesse ins Ausland zu verlagern, dann sind auch Ihre Lieferketten kürzer. Das spart erhebliche Transportkosten und CO2. Zudem sind regionale Lieferketten transparenter und daher leichter zu managen.

Auch im Fall einer globalen Krise wie der Corona-Pandemie ist das Risiko einer Produktionsunterbrechung deutlich reduziert. In innovative und verbesserte Fertigungstechnologien zu investieren, zahlt sich auch aus. Material-, Wasser- und Energieverbrauch werden so reduziert und anfallende Abfallprodukte können recycelt werden. Nachhaltigkeit ist also nicht teurer, sondern langfristig gesehen sogar lukrativ.

Was sind die ersten Schritte für ein Unternehmen, um nachhaltig zu werden?

Die Bereitschaft für Veränderung ist immer der erste Schritt. Das gesamte Unternehmen – Führungskräfte wie Mitarbeiter – muss eine neue Sinnorientierung erfahren. Dafür werden zunächst die aktuellen sozioökonomischen Megatrends intensiv analysiert. Mit den gewonnenen Erkenntnissen wird anschließend der gesamte Betrieb durchleuchtet und aufgeräumt. Gemeinsam wird ermittelt, welche Kompetenzen Führungskräfte und Mitarbeiter mitbringen, was noch verbesserungswürdig ist und wie sich zukunftsrelevante Themen aus Nachhaltigkeit, Gesellschaft und Wirtschaft in das Unternehmen integrieren lassen. Dabei ist es wichtig, bestehende Strukturen zu überdenken, von alten Gewohnheiten loszulassen und sich neue Ziele zu setzen.

Natürlich ist so eine Neuorientierung, bei der alle drei Dimensionen der Nachhaltigkeit berücksichtigt werden, ein sehr komplexer Prozess, der für viele Unternehmen eine Herausforderung darstellt. Wir vom Terra Institute möchten Unternehmen in ihrem Umdenken bestärken und ihren Transformationsprozess tatkräftig unterstützen!

Meta verändert sich für Trump …

… doch was bedeutet der Wandel für die Plattform selbst und was für Influencer und Marken? Ein Kommentar von Philipp Martin, Gründer von Reachbird und Experte für Influencer Marketing im DACH-Raum.

In einer Zeit, in der soziale Medien unseren Alltag mehr denn je prägen, kündigt Meta, das Unternehmen hinter Facebook und Instagram, weitreichende Veränderungen an. Diese Entwicklungen könnten die Plattformen selbst und die Arbeit von Influencern und Marken grundlegend beeinflussen. Als Experte für Influencer Marketing analysiere ich die möglichen Auswirkungen dieser Umwälzungen.

Die Macht der sozialen Medien in Deutschland

Bevor wir uns den spezifischen Änderungen bei Meta zuwenden, lohnt ein Blick auf die derzeitige Bedeutung sozialer Medien in Deutschland. Laut aktuellen Statistiken von Meltwater (2024) nutzen mehr als 80% aller Einwohnerinnen und Einwohner in Deutschland Social Media – und das im Durchschnitt mehr als 1,5 Stunden täglich. Diese Zahlen unterstreichen die enorme Reichweite und den potenziellen Einfluss, den Plattformen wie Facebook und Instagram auf die öffentliche Meinungsbildung haben.

Metas neue Strategie: Abschied vom organisierten Faktencheck

Eine der gravierendsten Änderungen bei Meta betrifft den Umgang mit Faktenchecks. Bisher setzte das Unternehmen auf externe Organisationen, um die Richtigkeit von Informationen zu überprüfen. Nun plant Meta, ähnlich wie bei X (ehemals Twitter), auf die Schwarmintelligenz zu setzen. Meta-Gründer Mark Zuckerberg veröffentlichte ein Video, in welchem er Änderungen im Umgang mit Desinformation und Hate Speech auf seinen Plattformen ankündigte. Diese Entwicklung birgt erhebliche Auswirkungen auf den Wahrheitsgehalt der auf der Plattform geteilten Informationen. Besonders für Influencer und Marken, die auf ihre Glaubwürdigkeit angewiesen sind, entsteht eine neue Herausforderung.

Politische Implikationen

Der Übergang zu einem dezentralisierten System der Inhaltsüberprüfung könnte eine Annäherung an bestimmte politische Strömungen bedeuten. Es stellt sich die Frage, wie die Plattform und ihre Nutzer in Zukunft mit Falschinformationen umgehen werden. Diese Entwicklung könnte als eine Annäherung an die Politik der Republikaner gesehen werden, die durch die Änderungen möglicherweise begünstigt wird. Ein weiterer Aspekt der Änderungen betrifft den Umgang mit sogenannten schädlichen Inhalten. Meta plant, die Regeln in sensiblen Bereichen wie Migration oder Sexualität zu lockern. Diese Lockerung könnte zu einem Anstieg aggressiver, negativer und konfrontativer Beiträge führen. Eine stärkere Polarisierung der Plattform ist zu erwarten – ein Trend, der bereits auf anderen sozialen Netzwerken wie X zu beobachten ist.

Auswirkungen auf das Nutzerverhalten

Die mögliche Zunahme von Hassrede und polarisierenden Inhalten könnte das Nutzererlebnis auf Meta-Plattformen grundlegend verändern. Für Influencer und Marken bedeutet dies, dass sie sich möglicherweise in einem zunehmend negativen Umfeld bewegen müssen. Dies könnte nicht nur ihre Reichweite, sondern auch die Qualität ihrer Interaktionen mit Followern beeinflussen.

Trotz der potenziellen Risiken bietet die Nutzung von Schwarmintelligenz auch Chancen. Es bleibt abzuwarten, wie sich die neue Faktencheck-Strategie langfristig bewährt. Die Möglichkeit, dass jeder mitwirken kann, könnte für mehr Transparenz und schnellere, unkompliziertere Checks sorgen – ähnlich wie bei Wikipedia.

Zukünftig sollen laut Mark Zuckerberg nicht mehr autorisierte Faktenchecker für die Kontrolle sorgen, sondern die Community selbst – indem man mit Community-Notes, ähnlich wie es aktuell bei X bereits der Fall ist, auf falsche Informationen hinweisen kann. Dieser Community-Ansatz ist im ersten Moment nicht schlecht, sondern eine sinnvolle Ergänzung zu dem bestehenden System. Er wird jedoch ohne klare Moderation und ohne professionelle Faktenchecker kaum der Flut an Desinformation auf Social Media gerecht werden können. Vielmehr sollten beide Ansätze genutzt werden, um Desinformation einzudämmen.

Die Verantwortung der Plattformen in Krisenzeiten

Angesichts der bevorstehenden Wahlen und der anhaltenden globalen Krisen tragen Social-Media-Plattformen eine besondere Verantwortung. Gerade in Wahlkampf- und Krisenzeiten müssten sie eigentlich dieser Verantwortung gerecht werden. Diese Verantwortung nehmen sie jetzt nicht mehr wahr. Durch den positiven Effekt, dass über Social Media jede und jeder seine eigene Meinung kundtun und somit an demokratischen Prozessen und der Meinungsbildung uneingeschränkt teilhaben kann, gibt es auch Nachteile. Denn: Wer garantiert, dass es sich bei den veröffentlichten Inhalten um korrekte Informationen handelt? Was, wenn gezielt falsche Informationen über soziale Netzwerke gestreut werden? Gezielte Desinformation über Social Media in Verbindung mit den hohen Nutzerzahlen kann einen großen, negativen Einfluss auf unsere Gesellschaft haben.

Der europäische Kontext: Digital Services Act

Während die angekündigten Änderungen zunächst die USA betreffen, sind sie langfristig auch für den europäischen Markt relevant. Der Digital Services Act in der EU regelt den Umgang mit gezielter Desinformation. Es wird interessant sein zu beobachten, wie Meta diese Regelungen mit seinen neuen Ansätzen in Einklang bringen wird. Umso wichtiger ist es, dass von Seiten der Gesellschaft und auch von Seiten der Plattformen gewisse Regeln aufgesetzt und eingehalten werden. Einen rechtlichen Rahmen bietet in Europa der Digital Services Act, der den Umgang mit gezielter Desinformation regelt.

Auswirkungen auf die Influencer-Welt

Die Änderungen bei Meta haben zudem auch weitreichende Implikationen für die Influencer-Branche. Viele Influencer weltweit gelten als Expertinnen und Experten auf ihren Gebieten - egal ob Fitness- und Gesundheitsinfluencer, Finanzinfluencer oder auch Politikinfluencer. Mit tausenden oder gar Millionen von Abonnenten haben sie einen großen Einfluss und können – wie der Name schon sagt – beeinflussen! Bisher wurde der Content von Influencern nur sehr selten wirklich kontrolliert und eingeschränkt – dies kann durch die neuen Community-Notes auch einen positiven Einfluss auf falsch verbreitete Informationen durch Influencer haben, sofern sich die aktiven Communities der Influencer auch kritisch mit deren Content auseinandersetzen und darauf entsprechend reagieren.

Herausforderung Hate Speech

Ein besonders kritischer Punkt für Influencer ist der Umgang mit Hate Speech. Influencer sind meist täglich Hate Speech ausgesetzt. Eine Einschränkung von Hate Speech war und ist für Influencer von großem Interesse, um in einem positiven Umfeld ihre Inhalte veröffentlichen zu können. Sollte es zu einer Auflösung dieser Einschränkung kommen, so ändert sich die generelle Social Media Tonalität zum Negativen. Einen Vorgeschmack gibt hier ebenfalls die Plattform X, auf welcher es aktuell kaum Einschränkungen gibt und Hate Speech deshalb dort bereits zu einem oft negativ aufgeladenen Community-Klima führt.

Konsequenzen für Marken-Kollaborationen

Die möglichen Veränderungen im Kommunikationsklima auf Meta-Plattformen haben auch Auswirkungen auf die Zusammenarbeit zwischen Marken und Influencern. Die Ziele von Brands in der Zusammenarbeit mit Influencern liegen auf der Hand – es geht um Aufmerksamkeit, Interaktion und Abverkauf. Diese Ziele lassen sich vor allem dann erreichen, wenn das Umfeld positiv ist. Hate Speech bringt mit negativem Kommunikations-Klima auch die Ziele der Markenkommunikation in Gefahr – weshalb wir uns für positive Communities und eine Einschränkung von Hate Speech einsetzen sollten. Gleichzeitig bedeutet dies natürlich nicht, dass kritische Kommentare oder Feedback eingeschränkt werden – es geht rein um das Beschimpfen und Verunglimpfen von Social Media Nutzern.

Blick in die Zukunft: Anpassung und Verantwortung

Es bleibt abzuwarten, wie sich die aktuell angekündigten Änderungen in den USA etablieren werden und zu welchem Resultat dies führt. Für den europäischen Markt wird es vorerst keine Änderungen geben – jedoch sollte die Situation und Entwicklung von Marken, Agenturen und auch Nutzern und Influencern gut beobachtet werden.

Fazit: Eine neue Ära der digitalen Kommunikation

Die von Meta angekündigten Änderungen markieren möglicherweise den Beginn einer neuen Ära in der digitalen Kommunikation. Dieser Wandel bringt nicht nur Herausforderungen, sondern auch Chancen für Influencer und Marken mit sich, insbesondere hinsichtlich der Qualität des Contents und der Authentizität von Informationen.

Die kommenden Monate und Jahre werden zeigen, wie sich diese Veränderungen auf die Social-Media-Landschaft auswirken werden. Eines steht jedoch fest: Influencer, Marken und Nutzer müssen sich auf ein dynamischeres, möglicherweise kontroverseres Umfeld einstellen. Die Fähigkeit, sich anzupassen und verantwortungsvoll zu kommunizieren, wird mehr denn je über den Erfolg in der digitalen Welt entscheiden.

Ausblick: KI und die Digitalwirtschaft

KI, politische Turbulenzen und Cookie-Fragezeichen: Die Digitalbranche wird auch 2025 vor herausfordernden Aufgaben stehen. Wie sie diesen begegnen kann, erläutern Swen Büttner und Christoph Schwarzmann von MGID Deutschland.

Das neue Jahr hat begonnen und noch sind alle Fragen offen: Welche neuen Chancen und Herausforderungen wird KI 2025 für die Digitalwirtschaft bereithalten? Wie geht es weiter rund um Cookies und Datenschutz? Und welche Auswirkungen werden die politischen Umwälzungen in Deutschland und den USA auf die Strategien und Erfolgsaussichten von Advertisern und Publishern haben? Hier fünf Thesen, welche Entwicklungen die Branche in diesem Jahr bewegen werden.

1. Mehrwert: KI geht 2025 endgültig über die Generierung von Creatives hinaus

Generative KI für die Erstellung von Creatives zu nutzen, hat sich fest etabliert und spart Zeit und Geld. Sowohl Advertiser als auch Publisher erkennen aber zunehmend, welche Möglichkeiten sich ihnen darüber hinaus eröffnen. Datengetriebene Ansätze, fundierte Analysen und die Prognose der Performance einzelner Kampagnen sind dabei nur die ersten Schritte. Zunehmend sind KI-Tools verfügbar, die nahezu das komplette Kampagnen-Management und den Media-Einkauf automatisieren und dadurch wesentlich schneller, kostengünstiger und effizienter gestalten. Gerade auch speziell für kleinere Brands werden sich – etwa im Bereich programmatischer Kampagnen – durch KI Möglichkeiten bieten, die bislang als zu komplex galten.

2. Turbulenzen: Politik bestimmt das erste Quartal

Der Amtsantritt von Donald Trump in den USA, Neuwahlen in Deutschland: 2025 beginnt politisch äußerst turbulent. Davon wird auch die Werbebranche nicht unberührt bleiben. Vorstellbar ist, dass Konsumenten angesichts unklarer Zukunftsaussichten erst einmal zurückhaltend agieren. Branding-Kampagnen könnten vor diesem Hintergrund von Kürzungen betroffen sein, während die Budgets für Performance-Kampagnen tendenziell stabiler bleiben dürften. Für Advertiser kann dies bedeuten, sich noch stärker auf eine exakte Zielgruppenauswahl zu konzentrieren und Ergebnisse genau zu evaluieren, um ihre Budgets optimal zu nutzen. In Deutschland könnten Verschiebungen im politischen Spektrum zudem dazu führen, dass rechtskonservative Medien und Narrative – von vielen Brands bislang strikt gemieden – höhere Akzeptanz finden. Dadurch können sich zwar zusätzliche Möglichkeiten ergeben, für Advertiser kann sich dies 2025 allerdings auch zu einer Frage der Moral entwickeln.

3. KI-Schattenseiten: Noch mehr Fake News, noch mehr Made-for-Advertising-Seiten

Neben den vielen Vorteilen der KI wird diese 2025 leider auch negative Trends weiter befeuern. So ist davon auszugehen, dass die Zahl so genannter MFA-Seiten – „Made for Advertising“, also dubiose, rein für Werbeschaltungen konzipierte Websites mit niedriger inhaltlicher Qualität – nochmals steigen wird. Gleiches gilt für die Verbreitung von Fake News. Der Grund dahinter ist simpel: Per KI lassen sich komplette MFA-Seiten, die zumindest auf den ersten Blick kaum noch von seriösen, legitimen Publishern zu unterscheiden sind, abstruseste Fake News und Verschwörungstheorien noch schneller und einfacher erstellen und monetarisieren. Ein Qualitätsproblem, dem sich auch in diesem Jahr die gesamte Werbebranche stellen muss.

4. Monetarisierung: Publisher müssen sich noch breiter aufstellen

Die Zeiten, in denen sich Publisher auf einige wenige Einnahmequellen beschränken konnten, sind definitiv vorbei. 2025 wird vielfach von einer weiteren Diversifizierung geprägt sein. Hier können beispielsweise Optionen wie direkte Partnerschaften, Abo-Modelle oder auch native Ads für viele Publisher eine stärkere Rolle spielen. Dies sorgt nicht nur für mehr Sicherheit und Stabilität, sondern kann gleichzeitig auch dazu beitragen, die Abhängigkeit von einzelnen großen Playern wie Google oder Facebook zu verringern. Selbst plötzliche Änderungen an Algorithmen oder der Infrastruktur dieser BigTech-Giganten treffen gut aufgestellte Publisher nicht so hart.

5. Cookies & Co.: Flexibilität ist Trumpf, First-Party-Daten stehen im Fokus

Das Hin und Her beim „Cookie-Aus“ wird vermutlich auch 2025 erst einmal weitergehen. Brands ziehen daraus jedoch zunehmend ihre Konsequenzen und setzen vermehrt auf einen Mix aus Cookie-basierten und Cookie-losen Strategien. Dadurch bleiben sie einerseits flexibel und tragen andererseits dem Datenschutz Rechnung, der noch weiter an Bedeutung gewinnen wird. Für Publisher steht weiter das Thema First-Party-Daten im Fokus. Sie müssen sich damit beschäftigen, ihre Daten auf clevere Weise zu sammeln, aufzubereiten und gewinnbringend zu nutzen. Positiver Nebeneffekt: Auf diese Weise können sie gleichzeitig engere Verbindungen zu ihren Partnern auf Advertiser-Seite aufbauen.

Eine neue Start-up-Ära der Raumfahrt beginnt

Wie Start-ups auch mithilfe virtueller Plattformen das Weltall zugänglich machen.

Der Weltraum, eines der letzten großen Rätsel, fasziniert die Menschheit seit jeher. Im 20. Jahrhundert ermöglichte eine Welle technischer Errungenschaften erste Schritte im All. Heute, im 21. Jahrhundert, findet ein neuer Wettlauf um den Weltraum statt – und diesmal ist die ganze Welt beteiligt.

Die letzten Jahre waren geprägt von einer Vielzahl von technologischen Fortschritten und Diskussionen rund um die Raumfahrt. Ferne Ideen wie Weltraumtourismus oder die Besiedlung des Mars wurden zu realen Projekten. Gleichzeitig haben Innovationen Einzug in unseren Alltag gehalten, die ursprünglich für die Raumfahrt erforscht wurden. Beispielsweise wurden GPS zur Navigation, Memory-Schaum, LEDs, Kohlenmonoxid-Detektoren, Brennstoffzellen, die Optimierung von Photovoltaik und wärmeisolierende Metalle während der Entwicklung von weltraumbezogenen Technologien geschaffen.

Das neue Raumfahrtzeitalter birgt enormes Potenzial für Unternehmen, Bildungseinrichtungen und Ingenieurberufe. Die unendlichen Weiten des Weltraums waren, dank einer Vielzahl neuer Projekte, noch nie so zugänglich wie heute. Möglich machen dies virtuelle Kollaborationsplattformen, wie etwa die 3DEXPERIENCE Plattform von Dassault Systèmes, mit der sich virtuelle Zwillinge von Produkten, Fabriken und sogar der gesamten Erde erstellen lassen. Die Plattform verfügt über alle Software-Tools, die Unternehmen und Start-ups benötigen, um nachhaltig entwerfen, simulieren, testen, produzieren, warten und herstellen zu können.

Start-ups im Wettlauf um die Raumfahrt

Zu den Unternehmen, die am neuen Wettlauf im All teilnehmen, gehören auch die beiden in München ansässigen Start-ups The Exploration Company und deltaVision. The Exploration Company entwickelt, produziert und betreibt modulare sowie wiederverwendbare Raumschiffe namens Nyx, die in der Umlaufbahn aufgetankt werden können. Nyx bietet ein breites Spektrum an Missionen, die von der Versorgung von Raumstationen und der Rückkehr zur Erde über den freien Flug um die Erde in sechs Monaten bis hin zur Landung auf dem Mond reichen. Nyx ist derzeit darauf ausgelegt, Fracht zu transportieren, hat aber auch das Potenzial, Menschen zu befördern.

Das Ziel von The Exploration Company ist es, den Zugang zum Weltraum zu demokratisieren. Die technischen Bausteine von Nyx sind mit offenen Schnittstellen ausgestattet und in einem SpaceStore verfügbar. Somit können auch andere Industrien diese nutzen und neue Anwendungen entwickeln. Dies ermöglicht Unternehmen verschiedener Branchen, ihre Technologien im Weltraum zu testen und Forschung zu betreiben, bevor sie die Produktion auf der Erde starten. Ein Beispiel sind landwirtschaftliche Unternehmen, die neue Arten von Pflanzen und Lebensmitteln in der Schwerelosigkeit unter widrigen Bedingungen anbauen und erforschen. Weitere

Anwendungsbeispiele finden sich in der Pharma- und BioTech-Branche sowie in der medizinischen Forschung. Dort sollen Tumore mithilfe von perfekt in der Schwerelosigkeit wachsenden Organoiden besser erforscht werden, um anschließend die Wirksamkeit von Medikamenten zu erhöhen. Auch die Fertigungsindustrie kann profitieren, indem neue Materialien in der Mikrogravitation entwickelt und getestet werden können.

HR-Trends 2025

Fünf HR-Expert*innen geben ihre persönlichen Einblicke in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.

Personalführung und Human Ressources müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder demografischer Wandel und Fachkräftemangel. Die HR-Verantwortlichen von ToolTime, Ella Media, Kenjo, Family Office 360grad AG und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.

Wisefood: Die Zero-Waste-Profis

Wie Wisefood mit seinen essbaren Trinkhalmen und ökologischen (Mehrweg-)Produkten zum Vorreiter für nachhaltigen Gastro-Bedarf wurde.

Große Veränderungen beginnen oft im Kleinen, und manchmal entspringt der erste Schritt einer mehr oder weniger spontanen Idee. Im Jahr 2017 erkannten Studierende am Karlsruher Institut für Technologie (KIT), dass bei der Herstellung von Lebensmittelprodukten Abfälle und Reststoffe anfallen, die sich sinnvoll nutzen lassen. „Bei der Herstellung von Apfelsaft bleiben die wertvollen Fasern übrig, der sogenannte Apfel­trester“, so Philipp Silbernagel, Mitgründer und Geschäftsführer der Wisefood GmbH, „und wir wollten daraus essbare Strohhalme herstellen.“

Was als akademisches Projekt und Hobby begann, entwickelte sich zu einem Vorreiterunternehmen, das heute in einem boomenden Marktsegment führend ist. Wisefood bietet ein wachsendes, breit aufgestelltes Portfolio von ökologischen Einweg- und zunehmend auch Mehrwegprodukten für Speisen und Getränke, angefangen beim Trinkhalm, über Besteck und Teller bis hin zu Küchenprodukten und Kerzen. „Wir verkaufen auf allen Kanälen“, sagt Philipp, „vom Groß- und Einzelhandel, über Online-Plattformen und natürlich über unseren eigenen Shop.“ Wisefood beliefert überwiegend Gastronomie und Handel, aber auch Privatkund*innen. Die meisten Produkte laufen unter der Marke Wisefood, einige Händler*innen und Markenhersteller*innen setzen auf Whitelabel-Lösungen. Wisefood ist mittlerweile in über 30 Ländern verfügbar, Tendenz steigend.

Start mit der Nudelmaschine

Der Weg dahin war alles andere als einfach. „Die ersten Prototypen für den essbaren Trinkhalm entstanden in Handarbeit mithilfe einer Nudelmaschine“, so Philipp. Zusammen mit seinen damaligen Mitgründern Danilo Jovicic und Konstantin Neumann wollte er eine Manufaktur für hochpreisige, essbare Trinkhalme aufbauen. „Dann haben wir uns intensiv mit dem Markt für Verpackungen und Einwegprodukte beschäftigt und festgestellt, dass hier sehr viel Müll entsteht und kaum etwas nachhaltig ist.“ Die Gründer erkannten das Potenzial ihrer Idee. Doch die ersten, noch in Handarbeit hergestellten Trinkhalme kosteten 50 Cent und waren damit nur für einen kleinen Nischenmarkt attraktiv. Die Erkenntnis reifte, dass nur ein sehr günstiges Produkt, das auch in der Masse funktioniert, einen spürbaren Unterschied machen würde.

Lernen durch Rückschläge

Anfangs war Wisefood komplett durch eigene Ersparnisse finanziert. „Dann haben wir ein Crowdfunding erfolgreich durchgeführt und gemerkt, dass sich die Leute für Nachhaltigkeit und für unser Produkt interessieren“, so Philipp. 2018 folgte eine kleinere Finanzierungsrunde mit Business Angels. Im selben Jahr ging das Team zur TV-Show „Die Höhle der Löwen“, etwas verfrüht, wie sich herausstellte. „Die Idee weckte zwar Begeisterung, doch in der Testrunde löste sich unser Trinkhalm auf und gab Geschmack an das Getränk ab“, erinnert sich Philipp, ein absolutes No-Go. Nach der Absage der Investor*innen stellte sich die Frage, ob man überhaupt weitermachen sollte. Philipp und sein Team gaben nicht auf und nahmen sich vor, dass zur Ausstrahlung der Sendung, also innerhalb von sechs Monaten, das Produkt marktreif sein sollte. „Die vielen Rückschläge, die wir im Laufe der Zeit hatten, waren wichtige Momente, die uns weitergebracht haben“, so Philipp.

Größer denken

Im Jahr 2019 sortierte sich das Team neu. Zwei Gründungsmitglieder stiegen aus, Maximilian Lemke als Head of Operations, und Patricia Titz als Head of Sales and Business Development stießen dazu. Kennengelernt hatten sich die drei bei UnternehmerTUM, dem Gründerzentrum der TU München. „Wir haben schnell gemerkt, dass wir ein gutes Team sind, und Wisefood zusammen groß machen können“, sagt Philipp. Es folgte der Umzug nach Garching, wo die Räumlichkeiten des Gründerzentrums und vor allem das Netzwerk genutzt werden konnten.

Das Produkt war noch längst nicht reif für den Massenmarkt. München und das Umland boten die passenden Labore sowie Spezialist*innen für die Forschungs- und Entwicklungsarbeit, zudem ein Ökosystem mit vielen weiteren nachhaltigen, technologielastigen Start-ups. Als neuer Investor kam DX Ventures, der Investmentarm von Delivery Hero, mit an Bord. Besonders bei der Entwicklung und der Produktion musste das Team umdenken. „Zu Beginn haben wir auf kleine Labore gesetzt, um unsere Lebensmittelprodukte zu entwickeln“, sagt Philipp, „doch im Rückblick hätten wir früher auf die Spezialist*innen setzen und die Produktion mit Expert*innen hochfahren sollen.“ Zum Beispiel kaufte das Team am Anfang kritische Werkzeuge für die Produktion selbst, etwa einen Extruder für die Trinkhalme. Weil ein einziges Bauteil kaputt ging und nicht schnell genug neu beschafft werden konnte, verlor das Team mehrere Monate. „Aus solchen Lek­tionen haben wir gelernt, größer zu denken“, so Philipp. Heute produziert Wisefood bei einem der führenden Lebensmittelhersteller*innen in München.

Mehr Produkte und Smart Money

Als es im Jahr 2019 zum ersten großen Deal mit Aldi kam, der die Produkte von Wisefood deutschlandweit in alle Märkte des Discounters brachte, sah es aus, als hätten es Philipp und sein Team geschafft. „Einer der schönsten Momente als Gründer ist, wenn man die eigenen Produkte im Laden sieht“, so Philipp. Als die Wisefood-Trinkhalme in über 4000 Aldi-Filialen standen, wurde der Erfolg mit dem ganzen Team gebührend gefeiert. In dem Geschäftsjahr, nur zwei Jahre nach der Gründung, erzielte Wisefood einen siebenstelligen Umsatz bei sechsstelligem Gewinn.

Doch dann folgte mit der Corona-Krise die nächste Zäsur. „Als Restaurants schlossen, Veranstaltungen ausfielen und die Menschen nicht mehr ausgingen, brach die Nachfrage massiv ein“, sagt Philipp, „und da haben wir gemerkt, dass wir mit der Ein-Produkt-Strategie, nur mit unserem Trinkhalm, nicht weit kommen.“ Das Team konzentrierte sich auf die Erweiterung des Produktsortiments, mit neuen Produkten wie Besteck und Tellern. Seitdem kann Wisefood nicht nur viel mehr Kund*innen ansprechen, sondern sind auch die Warenkörbe größer geworden. Für die sommerliche Grillparty gibt es zum Beispiel passende Sets aus nachhaltigem Einweggeschirr.