Aktuelle Events
OnlineDoctor: Blickdiagnose online
Auf dem Weg zum digitalen Hautarzt: OnlineDoctor ist Europas führender Anbieter von Tele-Dermatologie.
Ob Schnappschüsse von Zeckenbissen, Wunden oder Brandblasen: Als Hautarzt am Kantonsspital Baden bekam Paul Scheidegger nahezu täglich Fotos von Kollegen, Assistenzärzten, Freunden und Bekannten zugesandt. Doch die Anfragen via WhatsApp, SMS oder E-Mail waren nicht nur chaotisch und unvollständig, sondern vor allem nicht datenschutzkonform. „Ich dachte, dass man das professionalisieren müsse“, so Scheidegger, der auch in seiner Praxis begann, mit Fotos zu arbeiten: „Es wurde deutlich, dass Patienten viel selbstverständlicher auf (neue) Technologien zurückgreifen als Ärzte und hier ein echter Bedarf besteht.“
Von St. Gallen nach Hamburg
Aus dieser Erkenntnis heraus gründete er gemeinsam mit Tobias Wolf und Philipp S.F. Wustrow 2016 OnlineDoctor. Im Oktober 2017 ging die Plattform online. Noch in demselben Jahr war die App bereits bei mehr als 20 Prozent der Schweizer Dermatologen im Einsatz und bewährte sich bei mehreren tausend Behandlungen. Nun ist der Telemedizin-Pionier auch in Deutschland gestartet. Von Hamburg aus will Leonie Sommer mit der OnlineDoctor 24 GmbH den übrigen deutschsprachigen Raum erobern. Bereits im Frühling sollen in Deutschland mehr Hautärzte auf OnlineDoctor setzen als in der Schweiz. Die große Herausforderung: „Die deutsche Gesundheitsversorgung findet zum größten Teil noch analog statt. Der benötigte und auch schon angestoßene Strukturwandel wird nicht von heute auf morgen stattfinden. Damit sich die Telemedizin langfristig durchsetzt, müssen alle Stakeholder überzeugt werden – Patienten, Ärzte, Reha- und Alterszentren, Apotheken und viele mehr“, so die Deutschland-Chefin.
Ergänzung und Entlastung per Telemedizin
Die ehrgeizigen Wachstumsziele sollen unter anderem durch die Partnerschaft mit dem Berufsverband der Deutschen Dermatologen (BVDD) erreicht werden, in dem 90 Prozent der deutschen Hautärzte organisiert sind. „Der Fachbereich eignet sich wie kaum eine andere medizinische Disziplin für eine ärztliche Einschätzung per Bild. Sehr viele Hautkrankheiten lassen sich per Blickdiagnose erkennen, zudem sind im Gegensatz zu anderen Fachrichtungen meist keine Blutproben oder Ähnliches notwendig“, so Sommer. Das bietet enorme Vorteile und Potenziale für beide Seiten: „Einen Termin beim Hautarzt zu bekommen, ist nicht immer einfach. Zudem haben immer mehr Orte und Regionen keine ausreichende Versorgungsstruktur an niedergelassenen Ärzten. Hier kann OnlineDoctor eine ideale Entlastung und Ergänzung des Systems sein“, so Leonie Sommer.
Arzt wählen, Bild hochladen, online beurteilen lassen
Und so funktioniert das Konzept: Auf OnlineDoctor.de können Patienten ihren Wunschdermatologen auswählen. Mithilfe eines eigens entwickelten Chatbots werden im nächsten Schritt Informationen zum Hautproblem abgefragt. Nachdem der Nutzer drei Bilder des Hautproblems hochgeladen und die Gebühr von 39 Euro bezahlt hat, wird die Anfrage abgeschickt. Innerhalb von 48 Stunden kommt eine erste Einschätzung samt Handlungsempfehlung. Die erhobenen Daten werden über SSL/TLS verschlüsselt und auf deutschen Servern gespeichert. Größtmögliche Sicherheit garantiert dazu eine aus dem E-Banking bekannte Zwei-Faktor-Authentifizierung: Patienten erhalten sowohl eine E-Mail mit einem Link, der die Handlungsempfehlung enthält, als auch einen sechsstelligen SMS-Code, mit dem diese herunterladen werden kann.
Erstattungsfähigkeit im Fokus
Privatversicherte können die Rechnung bei ihrer Krankenversicherung einreichen. Gesetzlich Versicherte müssen die Kosten der Online-Konsultation (noch) selbst tragen. Ziel ist aber eine Kostenübernahme durch alle Krankenkassen: „Wir wünschen uns natürlich die Erstattungsfähigkeit für all unsere Nutzer. Wir sind sicher, dass die Krankenkassen die enormen Vorteile schnell erkennen werden“, sagt Leonie Sommer. Auf die neutral gehaltene Namensgebung OnlineDoctor angesprochen, verrät sie abschließend: „Wir haben den Namen bewusst offen gehalten, weil wir glauben, dass das Erfolgsmodell auch auf andere Fachbereiche übertragen werden kann.“
Diese Artikel könnten Sie auch interessieren:
Verkaufen ohne Shop: Zahlungen erhalten mit PayPal Open
Sie verkaufen digitale Kunst, Online-Kurse oder Handgemachtes? Dafür ist ein Shop nicht zwingend nötig. Mit Zahlungslinks und Kaufen-Buttons von PayPal erhalten Sie Ihre Zahlungen, wo die Verkäufe entstehen – schnell, sicher und unkompliziert.
Zahlungen empfangen, wo Ihre Community ist
Viele Soloselbständige nutzen Social Media, E-Mails oder Messenger nicht nur zur Kommunikation, sondern auch zur Vermarktung ihrer Produkte. Mit den passenden Tools können sie dort zusätzlich direkt Zahlungen empfangen – ganz ohne Onlineshop oder technisches Setup.
PayPal Open bietet drei flexible Möglichkeiten, Zahlungen zu erhalten:
- Zahlungslinks, die schnell geteilt werden können, etwa per E-Mail, DM, Post oder QR-Code.
- Kaufen-Buttons, die sich in eine bestehende Seite integrieren lassen, zum Beispiel in ein Link-in-Bio-Tool oder eine Landingpage.
- Tap to Pay macht Ihr Smartphone zum Zahlungsterminal (kompatibles Smartphone vorausgesetzt).
Alle Varianten funktionieren schnell, mobiloptimiert und bieten eine vertraute Nutzererfahrung. Damit wird der Ort, an dem Interesse entsteht, direkt zum Verkaufsort.
Zahlungslinks: Vom Post zur Bezahlung in Sekunden
Ein Kauf beginnt nicht im Warenkorb, sondern dort, wo Interesse entsteht: in einem Post, einer Story oder einer E-Mail. Genau hier setzen Zahlungslinks von PayPal an: Sie führen direkt von der Produktinfo zur Zahlung, ohne Umwege über externe Plattformen.
Das ist besonders hilfreich bei:
- digitalen Produkten
- E-Book-, Kurs- oder Software-Verkäufen
- (Online-)Vorbestellungen oder Trinkgeld-Modellen
Ein Zahlungslink erzeugt eine eigene Bezahlseite mit Titel, Preis, Beschreibung und Produktbild. Varianten wie Größen oder Farben sind ebenso integrierbar wie frei wählbare Preise. Versandkosten und Steuern können automatisch berechnet werden.
Der fertige Zahlunglink lässt sich flexibel teilen: per Messenger, E-Mail, Social Media oder als QR-Code auf einem Produktetikett oder Tischaufsteller. Die Zahlungsseite unterstützt gängige Zahlarten wie Kreditkarte, Wallets sowie ausgewählte regionale Methoden wie SEPA-Lastschrift, iDEAL oder Swish – je nach Land und Verfügbarkeit für die jeweiligen Käufer:innen.
Besonders praktisch: Ihre Kund:innen brauchen dafür kein eigenes PayPal-Konto. So können Zahlungen sicher und bequem online abgewickelt werden.
Für Selbständige, die regelmäßig digitale Inhalte verkaufen, ist das eine einfache Möglichkeit, Zahlungen mit PayPal zu empfangen, ohne ein klassisches Shopsystem aufsetzen zu müssen.
Kaufen-Buttons: Ihre Seite wird zur Verkaufsfläche
Wer bereits eine Website oder ein Link-in-Bio-Tool nutzt, kann PayPals Warenkorb- oder Kaufen-Buttons mit wenigen Zeilen Code integrieren. Damit verwandeln Sie eine einfache Landingpage in eine funktionale Verkaufsfläche. Sie erstellen den Button in Ihrem PayPal-Konto und erhalten automatisch den passenden HTML-Code, der nur noch kopiert und in die Website eingefügt wird. Kund:innen klicken, zahlen mit ihrer bevorzugten Methode und der Betrag wird direkt gutgeschrieben.
Sie behalten die volle Kontrolle über Ihre Gestaltung, Storytelling und Nutzerführung und profitieren gleichzeitig von einem verlässlichen Check-out, der hilft Vertrauen zu schaffen. Eine schlanke Lösung für alle, die ihr Angebot online präsentieren und Zahlungen direkt abwickeln möchten.
Mit Tap to Pay ganz einfach vor Ort verkaufen
Neben den digitalen Optionen können Sie auch vor Ort Zahlungen annehmen: direkt über Ihr Smartphone. Mit der PayPal-Funktion „Tap to Pay“ akzeptieren Sie kontaktlose Zahlungen per Karte oder Wallet ohne separates Kartenlesegerät. Alles, was Sie benötigen, ist ein kompatibles iPhone oder Android-Gerät mit NFC-Funktion (Tap to Pay funktioniert auf Geräten mit Android 8.0, NFC-Funktionen und Google Play Services. iOS ab iPhone XS und höher).
Besonders praktisch ist das beispielsweise für:
- Märkte, Pop-up-Stores
- Workshops und Live-Events
- Verkäufe im kleinen Rahmen, bei denen Flexibilität zählt
Wie viel verdienen Twitch Streamer wirklich? Zahlen und Verdienstmöglichkeiten im Blick
Wer als passionierter Spieler noch nicht an eine Gaming Karriere gedacht hat, sollte dies jetzt nachholen: Schließlich ergeben sich aus dieser von Esport-Turnieren bis hin zum Streaming einige Verdienstmöglichkeiten. Creatoren verdienen mit der Echtzeit-Übertragung ihres Spielerlebnisses Geld. Was sich einfach anhört, kann für so manchen Spieler auch zum komplexen Unterfangen werden. Wie hoch der Streamer Verdienst in diesen Fällen ausfällt und welche Einnahmemöglichkeiten es für Twitch Streamer noch gibt, erfahren Sie hier.
Die Top 10 Twitch Streamer im Jahr 2025
„Es gewinnt nicht der beste Spieler, sondern der beste Entertainer.“ |
Auf Plattformen wie Twitch gilt: Die Community beeinflusst stark, wie viel Geld Streamer verdienen können. Wer eine starke Zuschauergemeinde aufbauen kann, freut sich in der Regel über ein höheres Einkommen – dabei spielt vor allem die Interaktion der Viewer eine zentrale Rolle.
Aktuell weisen diese top 10 Twitch Channels die höchsten Zuschauerzahlen vor:
Streamer | Durchschnittliche Zuschauerzahl | Follower |
126.449 | 19,8 Millionen | |
52.024 | 7,9 Millionen | |
46.844 | 3,3 Millionen | |
36.903 | 2,2 Millionen | |
29.320 | 2,2 Millionen | |
71.045 | 1,5 Millionen | |
31.839 | 1,5 Millionen | |
42.837 | 1,4 Millionen | |
34.996 | 1,1 Millionen | |
30.438 | 993.817 |
Geld verdienen mit Streaming: Diese Faktoren wirken sich auf Twitch Einnahmen aus
Die Twitch-Einnahmen der verschiedenen Streamer setzen sich aus unterschiedlichen Verdienstquellen zusammen. So können die Kontoinhaber Werbung in ihren Live-Übertragungen schalten, die ihnen je nach Zuschauerzahl und Länge der Werbepause einen kleinen bis mittleren Betrag einbringen. Hierbei handelt es sich jedoch um ein eher statisches Nebeneinkommen, das die meisten Streamer auch als nebensächlich empfinden. Den größeren Teil des Twitch Einkommens machen Abonnements und Spenden der Zuschauer aus, aber auch Sponsoring und Markenpartnerschaften.
Übrigens: Twitch Auszahlungen erfolgen automatisch via PayPal oder Banküberweisung, sofern ein gewisser Mindestbetrag erreicht wurde. In diesem Zusammenhang bieten mobile casinos, ähnlich wie Streaming-Plattformen, eine bequeme Möglichkeit für Spieler, jederzeit und überall zu spielen, ohne auf traditionelle Zahlungsmethoden angewiesen zu sein. Diese Art von Plattformen hat sich zu einer beliebten Option entwickelt, da sie den Nutzern schnelle Auszahlungen und einfache Handhabung bieten.
Twitch Daten Leak 2021: Das verdienen Top-Streamer
Ende 2021 wurde die bekannte Plattform Twitch gehackt. Bei einem Datenleck kam heraus, dass die 2014 von Amazon gekaufte Plattform kaum Sicherheitsvorkehrungen geschaffen hatte – weshalb große Teile des Programmiercodes sowie Login-Daten und Zahlen zum Streamer Verdienst veröffentlicht werden konnten. Zu sehen waren vor allem die Gesamteinnahmen der Top Spieler aus den Twitch Statistiken des Zeitraumes August 2018 bis Oktober 2021 in US-Dollar:
- CriticalRole: 9,6 Millionen
- xQc: 8,5 Millionen
- summit1g: 5,8 Millionen
- Tfue: 5,3 Millionen
- Nickmercs: 5,1 Millionen
Zum Vergleich: Der deutsche Twitch Streamer Marcel Eris (alias MontanaBlack88) hat über Twitch 2,4 Millionen US-Dollar eingenommen. Der Streamer MontanaBlack88 gehört zu den bestbezahlten deutschen Spielern auf Twitch.
Damit werden die großen Unterschiede zwischen den Verdiensten der Streamer aus Deutschland und den USA deutlich. Rund vier Millionen Deutsche verfolgen Twitch-Übertragungen – und das sogar täglich. In den USA liegt die tägliche Zuschauerzahl bei stolzen 35 Millionen Nutzern, sodass amerikanische Streamer auch einen deutlich größeren Markt bedienen und die Einkommensunterschiede nicht verwunderlich sind. MontanaBlack88 ist allerdings auch auf anderen Plattformen wie YouTube zu finden, sodass sein Gesamtverdienst womöglich deutlich höher liegt.
Gut zu wissen: Twitch Partner (von Twitch ausgewählte Streamer mit qualitativem Content) können sich über höhere Einnahmen freuen – etwa einen höheren Anteil aus dem Abonnenten-Verdienst.
Im Detail: So setzt sich der Verdienst zusammen
Wie eingangs erwähnt, verdienen Twitch Streamer vor allem durch Abonnenten einen großen Teil ihres Einkommens. Das Abonnement kostet Subscribern in der ersten Stufe 4,99 Euro – wovon Streamer in der Regel 50% (2,50 Euro) behalten dürfen. Dafür erhalten Abonnenten bestimmte Vorteile wie etwa die Möglichkeit, per Chat mit dem Streamer interagieren zu können. Wer also 1.000 Abonnenten hat, kann deshalb schon mit Einnahmen von 2.500 Euro monatlich rechnen.
Einen Großteil ihrer Einnahmen generieren Gaming-Streamer aber auch mit Hilfe von Subscriber-Spenden. Diese werden in Twitch Bits genannt und von der Plattform ausgezahlt. Die Spenden rufen bei einigen Streamern emotionale Reaktionen hervor, was wiederum mehr Menschen zum Spenden anregt.
Eine weitere Möglichkeit stellt Affiliate-Marketing dar: Streamer bewerben in dem Fall für ihre Zuschauer interessante Produkte in ihren Videos. Kaufen Zuschauer die Produkte, profitieren Streamer von einer Provision – die nicht selten 30% des Kaufbetrages ausmacht.
Sponsoren und Markendeals als größte Einnahmequelle für Streamer
An Streamer mit besonders hohen Zuschauer- und Followerzahlen treten oft auch bekannte Marken heran. Sie bezahlen die Gamer dafür, ihre Produkte im Live-Stream anzupreisen – beispielsweise Gaming-Peripherie oder Energy-Drinks. Soll dies über einen längeren Zeitraum geschehen, werden solche Marken oft auch zum Sponsor des Spielers, um ihre eigene Reichweite zu erhöhen.
Kosten und Abzüge: Dem steht der Streamer Gehalt in Deutschland gegenüber
Die genannten Streamer Gehälter stellen Brutto-Summen dar – also den Verdienst vor Abzug der deutschen Einkommens-, Umsatz- und Gewerbesteuer, sowie Sozialversicherungen. Wer all diese Beträge zusammenzählt, muss oft bis zu 45% seines Brutto-Einkommens an den Fiskus abführen. Doch damit nicht genug: Die meisten Twitch-Streamer müssen auch Chat-Moderatoren bezahlen, die für eine angenehme Atmosphäre unter den Kommentierenden sorgen und Community-Richtlinien durchsetzen.
Darüber hinaus wollen sich Zuschauer nur Streams ansehen, die eine hohe Qualität aufweisen. Um leistungsstark spielen und den Verlauf optimal übertragen zu können, brauchen Streamer bestimmtes Gaming-Equipment, das selbst zwischen 2.000 und 10.000 Euro kosten kann. Auch eine stabile Internetverbindung und die damit verbundenen Kosten sind zu bedenken.
Alternative Plattformen zur Diversifizierung
Um noch mehr Einkommen zu generieren, können passionierte Spieler ihre Streams allerdings zusätzlich auf anderen Plattformen veröffentlichen und monetarisieren – beispielsweise durch Werbung und Affiliate-Marketing. Zur Diversifizierung kommen Plattformen wie YouTube und Kick in Frage, die teilweise sogar bessere Konditionen bieten. Denn: Bei Kick werden Streamer zu 95% an den Einnahmen durch Abonnements beteiligt, was im Gegensatz zu Twitch deutlich attraktiver erscheint.
Der industrielle Wasserkocher: Wie das Start-up SYPOX die Chemie grün färbt
Die chemische Industrie hat ein massives Emissionsproblem, denn ihre Prozesse verschlingen Unmengen an Erdgas. Das 2021 geründete Start-up SYPOX, ein Spin-off der TUM will das ändern – mit einer Technologie, die so simpel wie genial klingt: Ein riesiger, elektrischer Tauchsieder soll die fossile Verbrennung ersetzen. Nun meldet das junge Unternehmen den ersten Durchbruch auf dem Weltmarkt.
Wenn Dr. Martin Baumgärtl erklären will, wie er die chemische Industrie revolutionieren möchte, wählt er ein Bild, das jeder versteht: „Im Grunde ist es wie ein Wasserkocher in der heimischen Küche – nur im industriellen Maßstab.“ Baumgärtl ist CTO von SYPOX, und was er beschreibt, könnte einer der wichtigsten Hebel für die Dekarbonisierung einer der schmutzigsten Branchen der Welt sein.
Die chemische Industrie ist süchtig nach Energie. Um Basischemikalien wie Methanol oder Ammoniak herzustellen, wird sogenanntes Synthesegas benötigt – eine Mischung aus Wasserstoff und Kohlenmonoxid. Die Herstellung geschieht in gewaltigen Hochtemperaturprozessen. Bisher wird die dafür nötige Hitze fast ausschließlich durch das Verbrennen von Erdgas oder Öl erzeugt. Die Folge: Gigantische CO₂-Emissionen.
Strom statt Flamme
Genau hier setzt SYPOX an. Das 2021 in Freising gegründete Unternehmen ersetzt die offenen Gasflammen durch elektrischen Strom. In ihren Reaktoren, die von außen wie gewöhnliche Druckbehälter aussehen, stecken hochkomplexe elektrische Heizelemente, die direkt hinter den Katalysatoren platziert sind.
Der Effekt ist enorm: „In konventionellen Verfahren entfallen rund 40 Prozent der Emissionen allein auf die Wärmeerzeugung aus fossilen Energieträgern“, rechnet Baumgärtl vor. Durch die Elektrifizierung des Reaktors fallen diese Emissionen weg – vorausgesetzt, der Strom kommt aus erneuerbaren Quellen. Zudem lässt sich der Prozess laut den Gründern präziser und sicherer steuern.
Der Anti-Trend im Silicon Valley
Doch nicht nur technologisch, auch ökonomisch schwimmt SYPOX gegen den Strom. In der Tech-Szene ist es üblich, dass Start-ups jahrelang Verluste schreiben und sich von einer Venture-Capital-Runde zur nächsten hangeln, getrieben von Investoren, die schnelles Wachstum fordern.
Die bayerischen Gründer wählten einen konservativeren, fast schon mittelständischen Ansatz. „Es entsprach nicht unserem Stil, Geld einzuwerben – wir haben vielmehr von Anfang an versucht, auf Basis unserer Technologie ein tragfähiges Geschäft aufzubauen“, erklärt CEO Dr. Gianluca Pauletto. Man wolle bodenständig bleiben und sich aus Umsätzen finanzieren, statt sich in Abhängigkeiten zu begeben.
Vom Container im Altmühltal zum Großkunden
Die Wurzeln des Unternehmens liegen an der Technischen Universität München (TUM). Die Idee brachte Pauletto aus seiner Zeit in Montréal mit, an der TUM fand er in Prof. Johannes Lercher und dem damaligen Doktoranden Martin Baumgärtl die wissenschaftlichen Mitstreiter.
Der Weg zum marktreifen Produkt war – typisch für „Deep Tech“ – langwierig. „Vier Jahre Forschung und zahlreiche Versuchsreihen waren notwendig“, erinnert sich Lercher. Während andere Software im Co-Working-Space programmierten, baute das SYPOX-Team eine Pilotanlage in einem einfachen Stahlcontainer auf dem Gelände einer Biogasanlage im ländlichen Dollnstein (Altmühltal).
Diese Beharrlichkeit zahlt sich nun aus. Das Start-up hat, unterstützt durch den Spezialchemie-Konzern Clariant, seinen ersten Großkunden an Land gezogen. Ab 2026 soll eine erste industrielle Anlage in Betrieb gehen, die täglich 150 Tonnen Synthesegas produziert. „Das ist nicht nur ein Meilenstein für uns, sondern auch ein starkes Signal an die gesamte chemische Industrie“, so Baumgärtl.
Für das Team, das inzwischen in Langenbach bei Freising sitzt und weiterhin Labore auf dem Forschungscampus Garching betreibt, ist das der Beweis: Die Elektrifizierung der Chemie ist keine Zukunftsmusik mehr, sie beginnt jetzt.
Social Engineering auf dem Vormarsch
Wie Deepfakes die Sicherheit von Führungskräften stärker in den Fokus rücken.
Fotorealistische KI liefert innerhalb von kürzester Zeit realistische Visuals. Was in vielerlei Hinsicht den Arbeitsalltag erleichtert, bedeutet für Social Engineering jedoch eine neue Eskalationsstufe, wie nicht zuletzt die hitzige Debatte um massenhaft sexualisierte Deepfakes von realen Personen durch Grok eindrücklich vor Augen führte.
Auch Personen in leitenden Funktionen in Unternehmen sind vor solchen Manipulationen nicht gefeit. Zunehmend zielen Angriffe auf Menschen mit Zugriffsrechten und Entscheidungsbefugnissen, deren Freigaben unmittelbare Wirkung auf die Sicherheit einer ganzen Organisation haben. „Fotorealistische KI und hybride Social-Engineering-Kampagnen erhöhen den Druck auf Schlüsselpersonen. Daher brauchen Unternehmen belastbare Verifikationsprozesse, Krisenroutinen und integrierte Schutzkonzepte“, erklärt Markus Weidenauer, geschäftsführender Gesellschafter der SecCon Group GmbH.
Deepfakes zielen auf privates Umfeld
Nach Angaben des Bundesamts für Sicherheit in der Informationstechnik (BSI) lassen sich Deepfakes als Verfahren beschreiben, die gezielt Spear-Phishing und andere Social-Engineering-Angriffe nutzen, um Vertrauen aufzubauen und Autorität zu simulieren. Generative KI fungiert dabei als zentraler technischer Enabler, da sie die realistische Erzeugung manipulativer Audio-, Video- und Textinhalte erstmals in industriellem Maßstab ermöglicht. „Die eigentliche Bedrohung ergibt sich dabei nicht aus einzelnen KI-generierten Inhalten, sondern aus deren koordinierter Nutzung“, weiß der Sicherheitsexperte.
Infolge der steigenden Qualität und der zunehmenden Verfügbarkeit generativer KI wird es darüber hinaus zunehmend schwieriger, Fakt von Fiktion zu unterscheiden „Zwar können isolierte Inhalte für sich betrachtet zweifelhaft sein, doch das konsistente Zusammenspiel mehrerer manipulierter Medieninhalte erhöht die wahrgenommene Glaubwürdigkeit erheblich“, ergänzt der Profi und weist darauf hin, dass sich diese Entwicklung in der Praxis zuspitzt. „Social Engineering, Deepfakes und digitale Erpressung werden immer häufiger mit Observationen des privaten Umfelds sowie Angriffen auf die Heim-IT kombiniert. Durch diese Eskalation der Angriffsmittel bauen Täter gezielt psychologischen Druck auf, der die Widerstandsfähigkeit der Betroffenen weiter reduziert.“
Risiken kennen, Wege einüben
Kompromittierte Schlüsselpersonen mit Steuerungs- und Entscheidungsfähigkeiten bergen hohes Schadenspotenzial für Betriebe. Das reicht von unmittelbaren finanziellen Verlusten bis zu dauerhaften Reputationsschäden. Dieses Risiko wird insbesondere dort verstärkt, wo organisatorische und prozessuale Absicherungen fehlen. „Resilienz bedeutet aber, auch in potenziellen Krisensituationen sichere Entscheidungen treffen zu können“, betont Markus Weidenauer. Trotzdem mangelt es vielen Unternehmen sowohl an speziellen Trainings zum Thema Social Engineering als auch an Meldewegen, klaren Freigabeprozessen, die auch unter Druck funktionieren, sowie alternativen Kommunikationskanälen. „Nur wenn Mitarbeiter diese Strukturen kennen und regelmäßig einüben, entsteht eine Kultur, in der eine frühzeitige Eskalation in der Meldekette als notwendiger Beitrag zur Sicherheit des gesamten Betriebs wahrgenommen wird“, fügt Markus Weidenauer hinzu.
Dringender Handlungsbedarf in Unternehmen
Um hier Abhilfe zu schaffen, verabschiedete im September 2025 das Bundeskabinett das sogenannte KRITIS-Dachgesetz zur Stärkung der Resilienz kritischer Einrichtungen. Es verpflichtet die Unternehmensleitung, Schutz- und Präventionsmaßnahmen umzusetzen, deren Wirksamkeit nachzuweisen ist. Der dem Regelwerk zugrunde liegende All-Gefahren-Ansatz fordert, dabei physische, digitale und organisatorische Dimensionen gemeinsam zu betrachten. „Auch wenn Führungskräftesicherheit hier kein eigener Rechtsbegriff ist, sollte sie Teil der Anforderungen an ein modernes Sicherheitsmanagement sein“, so der Geschäftsführer der SecCon Group.
Das bedeutet: Führungskräfte etwa vor Erpressungsversuchen durch Social Engineering zu schützen, ist weder persönlicher Luxus noch Symbolpolitik, sondern ein Element der nachweisbaren Unternehmensresilienz. Schließlich ist die Sicherung von Steuerungs- und Entscheidungsfähigkeit ein Governance-Baustein. Nicht die Person steht im Mittelpunkt, sondern die Handlungsfähigkeit des Instituts.
SPEIKI: das Spucktuch zum Anziehen
SPEIKI wurde von Dr. Karin Mehling entwickelt – als ihr eigenes Kind ein sogenanntes Spuckbaby war und gängige Hilfsmittel im Alltag nicht funktionierten. Aus dieser Erfahrung entstand ein durchdachtes Spucktuch, das genau auf die Bedürfnisse von Eltern und das Verhalten der betroffenen Babys abgestimmt ist.
Was tun, wenn das eigene Baby ständig spuckt – und keine Lösung wirklich hilft? Genau diese Frage hat sich Gründerin Dr. Karin Mehling 2020 gestellt, als sie selbst mitten in der herausfordernden Spuckphase ihres zweiten Kindes steckte. Rund 70 Prozent der Säuglinge spucken in den ersten vier bis sechs Lebensmonaten – ein häufiges Phänomen, das durch den noch unreifen Magenpförtner, einem Muskel am Mageneingang, verursacht wird.
Der Alltag ist in dieser Zeit vor allem geprägt durch Flecken wischen und Wäsche waschen, unangenehme Gerüche und feuchte Textilien. Aus ihrer persönlichen Erfahrung entstand das SPEIKI Original (Kurzform für Speikind): Ein „Spucktuch zum Anziehen“, das Eltern von Speikindern spürbar entlastet, da es die ausgespuckte Milch fast vollständig auffängt.
Per Bootstrapping aus dem Wohnzimmer in den Markt
Entwickelt wurde das SPEIKI Original am Wohnzimmertisch für den eigenen Sohn. 2021 meldete die promovierte Germanistin, Verlagskauffrau sowie PR- und Marketing-Managerin ihr Gewerbe als Einzelunternehmerin, wenig später konnte das Spucktuch bereits in Serie gehen.
In der per Bootstrapping finanzierten Startphase war es laut der Gründerin die größte Challenge, zu akzeptieren, nicht alles sofort schaffen zu können. Während sie als Angestellte ihren Fokus auf die klar definierten Projekte und Tätigkeiten legen konnte, kamen nun als Solo-Selbständige die Notwendigkeiten rund um Buchhaltung, Herstellung, Verwaltung und vieles mehr hinzu.
„Mit zwei Kindern zu Hause und bald einen weiteren Buben im Bauch gründete ich mein Einzelunternehmen. Entwicklung, Vermarktung, Vertrieb – alles stemmte ich allein und ,nebenbei‘. Nachts, zwischen Windeln und Weinen, auf dem Boden neben der Badewanne, in der die Buben sitzen – es gab fast keinen Ort und keine Zeit, die ich nicht versuchte zu nutzen, um meine Vision voranzutreiben: Mit meinem Textil-Label kluge Lösungen für den Baby-Alltag zu schaffen, die wirklich unterstützen. Dabei leiteten und leiten mich mein Ehrgeiz, mein Allrounder-Gemüt und meine Zielstrebigkeit, ebenso wie meine Werte, die dem Prinzip der ökonomischen Nachhaltigkeit folgen.“
Gefertigt wird das Spucktuch in einer bayerischen Nähmanufaktur. Regionalität ist Karin Mehling wichtig, als Unternehmerin sieht sie sich in der Verantwortung, nachhaltig zu wirtschaften.
Fünf Jahre erfolgreich im stark umkämpften Babyausstattungsmarkt
Der Weg von der ersten Idee bis zum etablierten Produkt zeigt den typischen Werdegang vieler Einzelunternehmen: handgemachte Prototypen, lokale Produktionswege und ein wachsendes Sortiment, das sich an den alltäglichen Bedürfnissen von Familien orientiert. Der Hauptfokus liegt bis heute auf dem SPEIKI selbst. Ergänzende Produkte runden das Portfolio ab, bleiben aber klar am Bedarf von Familien mit Spuck- und Stillthemen ausgerichtet.
Das Ergebnis: Ein Sortiment, das trotz spitzer Positionierung breit genug ist, um relevant zu bleiben. Das Wachstum der Marke basiert vor allem auf organischer Sichtbarkeit, Community-Nähe und authentischer Kommunikation.
„Ich habe mich bewusst auf das Kernprodukt konzentriert – und ergänze nur dort, wo Familien echte Bedürfnisse haben“, erklärt die Gründerin. Die Nachfrage zeigt, dass dieser Ansatz funktioniert: Das Unternehmen feiert in diesem Jahr sein fünfjähriges Jubiläum und blickt auf eine Entwicklung zurück, die weit über die Region hinaus Wirkung zeigt. Als Direct-to-Customer-Unternehmen mit jährlich wachsenden Umsätzen ein Meilenstein im stark umkämpften Babyausstattungsmarkt. „Dass aus einer spontanen Idee so viel werden kann, hätte ich selbst nicht zu träumen gewagt“, sagt Karin Mehling. „Aber offensichtlich haben viele Eltern genau das gebraucht.“
Gaming & digitale Medien – eine Perspektive für Start-ups?
Diese Voraussetzungen sollten Gründerinnen und Gründer von Start-ups in der Gamingbranche oder der Gestaltung digitaler Medien mitbringen, um erfolgreich zu sein.
Digitale Start-ups verbinden attraktive Zukunftsperspektiven mit einem geringen Startkapital. Für die digitale Generation aktueller Schul- und Universitätsabgänger stellt sich die Frage, ob ein Einstieg in die Gamingbranche oder die Gestaltung digitaler Medien für die Gründung eines Start-ups ausreichen kann. Solche Perspektiven sind gegeben, die neben ausreichend Kreativität eine fundierte Ausbildung in Computertechnik und Business gleichermaßen voraussetzen.
Indie-Games – eine Perspektive für Entwickler?
Noch vor einigen Jahren war die Gamingbranche als Perspektive für Gründer eher unattraktiv. Die großen, internationalen Studios dominierten die Szene, wobei für Triple-A-Titel längst Tausende von Entwicklern an unterschiedlichen Standorten benötigt wurden. Unter dem Zeit- und Kostengrund vieler Studios sowie der Entlassungswelle der letzten Jahre ist es für immer mehr Developer uninteressant, auf die Anstellung in einem der großen Softwarehäuser zu hoffen.
Die unabhängige Entwicklung von digitalen Medien oder Spielen bleibt jedoch beliebt und kann zur Basis eines Start-ups werden. Immer mehr Gamer wenden sich von den überteuerten, großen Marken der Szene ab und vertrauen auf kleinere Entwickler mit mehr Freiheiten bei der Umsetzung. Selbst die großen Gaming-Plattformen halten regelmäßig eine Auswahl beliebter und neuer Indie-Games für Millionen Nutzer bereit.
Unabhängig von Größe und Art eines Studios bleibt die Gamingbranche international und setzt verschiedene Skills vom Development bis zum erfolgreichen Marketing voraus. Dies alles lässt sich längst in speziell abgestimmten Studiengängen erlernen.
Spielentwicklung der neuesten Generation als Studiengang
Studiengänge wie Games & Immersive Media an der Hochschule Furtwangen erlauben es, einen Bachelor im Gaming-Umfeld zu erlangen und alle relevanten Fähigkeiten für den zukünftigen Berufsweg zu gewinnen. Neben Computer Science und Anwendungen im spielerischen Bereich nehmen Business, Design und Medien als zweiter Bereich einen wesentlichen Stellenwert im Studium ein.
Diese Kombination des bilingualen Studiengangs ergibt Sinn. Schließlich ist nicht jeder kreative Programmierer und Spieleentwickler ein Geschäftsmann, genauso wenig wie Marketer gerne stundenlang mit Quellcode arbeiten. Moderne Studiengänge wie dieser führen beide Welten zusammen und sorgen für eine fundierte Ausbildung, um tiefe Einblicke in beide relevanten Arbeitsfelder zu gewinnen.
Starke Unterstützung für zukünftige Start-ups
Die Hochschule Furtwangen geht mit ihrer Unterstützung weit über den reinen Studiengang hinaus. Bewusst wird angehenden Start-ups unter die Arme gegriffen, die ihre ersten Schritte ins Gaming-Business mit kreativen Spielen und Studienprojekten gehen möchten.
Neben einer umfassenden Beratung auf dem Weg zum eigenen Business werden ein Support für Fördermittel sowie Räumlichkeiten für das gemeinschaftliche Arbeiten an Spielen oder digitalen Medien geboten. Viele Formalitäten und Unsicherheiten, die sich bei Start-ups unabhängig von Branche und Geschäftsfeld ergeben, werden so seitens der Hochschule kompetent und professionell unterstützt.
Für den Einstieg sind Kenntnisse im Gaming-Bereich ideal, die über die reine „Freude am Zocken“ hinausgehen. Kreativität in der Planung und Umsetzung eigener Projekte sollte nachgewiesen werden – anders als die zwingende Notwendigkeit, eine Programmiersprache zu beherrschen.
Sichtbarkeit im digitalen Umfeld entscheidend
Wie bei allen Produkten entscheidet weniger die tatsächliche Qualität, sondern die Sichtbarkeit und eine wirkungsvolle Werbung über Erfolg von Misserfolg von Games. Gerade das Marketing für digitale Produkte ist wegen der hohen Konkurrenz und einer Fülle an Informationen in der digitalen Welt eine immense Herausforderung. Hier eine fachkundige Unterstützung von Anfang an zu erhalten, bewahrt Entwickler und kreative Köpfe davor, grundlegende Fehler zu begehen und frühzeitig den Traum vom Gaming-Job zu begraben.
Schneller aus dem Labor
Wie Gründer*innen aus dem universitären Umfeld der Transfer von Wissen aus der akademischen Welt in die Privatwirtschaft noch besser gelingt, erörtern wir im Interview mit Dr. Philipp Baaske, Mitgründer von NanoTemper Technologies, Business Angel und seit Oktober 2025 Vizepräsident für Entrepreneurship an der Ludwig-Maximilians-Universität München (LMU).
NanoTemper, einer der Weltmarktführer für biophysikalische Messinstrumente, wurde 2008 als Spin-off der LMU gegründet. Was hatte dich damals dazu bewogen, vom Forscher zum Gründer zu werden?
Für mich war es sehr persönlich. Meine Mutter wurde mit Brustkrebs diagnostiziert, und das Medikament, das ihr das Leben gerettet hat, wurde dank Biotechnologie entwickelt. Mir wurde klar, dass Wissenschaft nur dann wirklich mächtig ist, wenn sie den Patienten erreicht. Dieser Gedanke hat mich nie mehr losgelassen.
Im Labor habe ich die Neugier, die Präzision, das Entdecken geliebt. Aber ich sah auch die Lücke: brillante Ideen blieben oft in Publikationen stecken, weit weg vom Alltag der Menschen. Ich wollte nicht bei der Entdeckung stehen bleiben. Ich wollte helfen, Entdeckungen in Produkte zu verwandeln, die jeder nutzen kann.
Diese Überzeugung wurde durch meine Herkunft noch verstärkt. Ich bin in einem kleinen bayerischen Dorf aufgewachsen, in einer Familie von Handwerkern. Meine Eltern haben mir beigebracht, dass Arbeit praktisch sein muss, dass sie den Menschen dienen sollte. Die Wissenschaft faszinierte mich, aber ich spürte eine Unruhe: Wie viel mächtiger kann unser Wissen werden, wenn wir es vom Labor auf den Alltag der Menschen übertragen?
Also habe ich zusammen mit meinem Mitgründer Stefan Duhr den Sprung gewagt. Zwei junge Wissenschaftler in einem Labor im Keller, die die ersten Prototypen von Hand bauten. Wir hatten kein Risikokapital, keine Roadmap, nur Entschlossenheit und den Glauben, dass das, was wir erschaffen, etwas verändern könnte. Uns trieb die gleiche Hartnäckigkeit an, die ich in der Werkstatt meiner Eltern gesehen hatte: Wenn etwas nicht funktionierte, reparierte man es, bis es funktionierte.
Wenn ich jetzt zurückblicke, war es nicht der Businessplan oder die Marktanalyse, die den Ausschlag gaben. Es war der Glaube, dass Forschung nicht im Labor enden, sondern die Brücke zur Gesellschaft schlagen sollte. Und für mich wurde Unternehmertum der Weg, diese Brücke zu bauen.
Was waren die größten Hürden auf diesem Weg?
Die größten Hürden waren nicht technischer, sondern menschlicher Natur. Als Wissenschaftler waren wir darauf trainiert, uns tief in die Experimente zu vertiefen, aber wir wussten nicht, wie man mit Kunden spricht, Verträge aushandelt oder Teams leitet. Das musste ich alles von Grund auf neu lernen.
In den Anfangsjahren haben wir Prototypen verkauft, bevor das Produkt überhaupt fertig war. Das hat uns gezwungen, schnell zu handeln, aber es hat uns auch Demut gelehrt: Kunden erwarten Zuverlässigkeit und nicht nur clevere Ideen. Später, als das Wachstum unsere Finanzen überstieg, mussten wir schwierige Entscheidungen treffen. Einmal musste ich Kollegen entlassen, um das Unternehmen zu retten. Das war einer der schwierigsten Momente meines Lebens, aber es hat mir gezeigt, dass Führung nicht darin besteht, Schmerzen zu vermeiden, sondern Verantwortung zu übernehmen.
Natürlich gab es unzählige kleinere Hürden: Menschen davon zu überzeugen, einem jungen Unternehmen zu vertrauen, die Gehaltsabrechnung zu erledigen, Instrumente von Hand zu reparieren. Aber diese Hindernisse wurden zu unserer Lehrzeit.
Wie können wir den Wissens- und Technologietransfer verbessern und gleichzeitig einen echten gesellschaftlichen Mehrwert schaffen?
Über Fördermittel wird viel gesprochen, was gut ist, denn wir müssen sie verbessern. Aber ich glaube, wir sollten über die Fördermittel hinausdenken. Der Fokus muss auf dem Impact liegen, nicht nur auf der Förderung. In den Life Sciences bedeutet das vor allem eines: Innovationen schneller zu den Patienten und den behandelnden Ärzten zu bringen.
Wir haben exzellente Forschung und Wissenschaftler von Weltrang. Die Frage ist, wie schnell ihre Entdeckungen den Weg vom Labor in die medizinische Praxis finden. Entscheidend sind stärkere Partnerschaften zwischen Universitäten, Krankenhäusern und praktizierenden Ärzten. Wenn Forscher, Kliniker und Ärzte früh zusammenarbeiten, wird der Weg von der Entdeckung zum Patienten kürzer und effektiver.
Ein weiterer wichtiger Aspekt ist, Wissenschaftler dazu zu ermutigen, den Schritt in die Selbständigkeit zu wagen. Viele zögern, weil sie glauben, dass ihnen die unternehmerischen Fähigkeiten fehlen. Was sie jedoch wirklich brauchen, ist eine unterstützende Umgebung: Mentoren, Vorbilder und die Möglichkeit, ihre Ideen auszuprobieren.
Schließlich geht es beim Wissenstransfer nicht darum, Patente von einem Büro in ein anderes zu verlagern. Es geht darum, wissenschaftliche Erkenntnisse in etwas umzusetzen, das das Leben der Menschen berührt und Ärzten hilft, ihre Patienten besser zu behandeln.
Die Skalierung von Forschungsergebnissen in der Privatwirtschaft funktioniert in Deutschland und Europa anders als in den USA. Was können wir aus den USA lernen und was sollten wir anders machen?
Ich bewundere den Mut des US-Ökosystems, in dem Gründer oft von großen Zielen träumen, schnell agieren und frühzeitig Investoren finden. Diese Energie schafft Dynamik und hat viele bahnbrechende Unternehmen hervorgebracht.
Europa hat seine eigenen Stärken. Wir sind bekannt für Qualität, Präzision und Vertrauen. Kunden schätzen, dass wir Dinge bauen, die lange halten. Unsere Herausforderung besteht darin, diese Stärken mit mehr Geschwindigkeit und Mut zu kombinieren. Wir haben die Chance, ein anderes Modell als das US-amerikanische zu entwickeln: verantwortungsvolles Wachstum, profitable Unternehmen und nachhaltige Wirkung, die über Jahrzehnte anhält, und nicht nur Finanzierungszyklen.
Kurz gesagt: Wir können uns von den USA die Zuversicht abschauen, aber wir sollten uns unserer europäischen DNA treu bleiben: geduldig, diszipliniert und langfristig orientiert.
Seit Oktober 2025 bist du Vizepräsident für Entrepreneurship an LMU. Wie willst du dort die Bereiche Entrepreneurship und Technologietransfer voranbringen?
Die LMU ist eine der weltweit führenden Universitäten mit 54.000 Studierenden und 18 Fakultäten. Sie vereint Exzellenz in allen Bereichen und Forschungsgebieten wie Medizin, Physik, KI, Recht, Wirtschaftswissenschaften und Geisteswissenschaften. Meine Aufgabe ist es, dafür zu sorgen, dass diese Vielfalt in die Gesellschaft getragen wird. In Form von Unternehmen, Wissen und Menschen, die ihre Fähigkeiten einsetzen. Und das muss schnell geschehen.
Eine natürliche Stärke der LMU liegt in DeepTech, in den Life Sciences, insbesondere in der Biotechnologie, und in aufkommenden Bereichen wie künstliche Intelligenz und Quanten-Technologien. In diesen Bereichen gibt es bereits bahnbrechende Forschung, und der Einfluss auf Patienten, Industrie und Gesellschaft kann enorm sein. Mein Fokus liegt darauf, diese Bereiche zu stärken und die Wege von der Forschung zur Anwendung zu beschleunigen und zu vereinfachen.
Das bedeutet, dass wir Studierenden und Forschern Zugang zu Büros und Laboren, Inkubationsprogrammen, Finanzierungsmöglichkeiten und starke Partnerschaften mit relevanten Akteuren in München und darüber hinaus bieten, dass wir ein Umfeld schaffen, in dem sie frühzeitig und in der Nähe der Kunden mutige Ideen testen können. In dem sie aus Fehlern und Erfolgen lernen können, von erfahrenen Gründern Ratschläge erhalten und Unternehmertum als attraktive Option sehen.
Vor allem aber möchte ich, dass die Zahl der Start-ups, die von der LMU ausgründen, deutlich ansteigt. Sind Lehre, Forschung und Unternehmertum auf Weltniveau und stärken sich gegenseitig, wird die LMU noch mehr zu einem Ort, an dem Ideen wirklich Wirkung entfalten. Nicht nur in München, sondern weit darüber hinaus.
Vor Kurzem ist dein Buch „The Honorable Entrepreneur“ erschienen. Welche Tipps daraus willst du Gründer*innen mit auf den Weg geben?
Diese sieben Prinzipien haben mich in den letzten 20 Jahren von einer kleinen Labor-WG in einem Keller zu einem globalen Unternehmen geführt:
- Vertrauen aufbauen oder gar nichts aufbauen: Vertrauen ist die Grundlage für die Zusammenarbeit mit Mitgründern, Mitarbeitern, Investoren und Kunden. Ohne Vertrauen kann kein Unternehmen bestehen.
- Menschen an erste Stelle setzen – immer: Erfolg wird von Teams und nicht von Einzelkämpfern geschaffen. Wenn du dich um deine Mitarbeiter kümmerst, werden sie die Mission mit dir durchziehen.
- Innovieren für den Impact: Baue keine Technologie nur für dich selbst. Frage dich: Verbessert das das Leben – für Patienten, Kunden, die Gesellschaft?
- Schnell und klug skalieren: Wachstum ist wichtig, aber Wachstum ohne Disziplin kann ein Unternehmen zerstören. Fokussiertes, profitables Skalieren schafft Resilienz.
- Ein profitables, nachhaltiges Unternehmen aufbauen: Profitabilität ist kein Nachgedanke, sondern das, was dir Freiheit und Unabhängigkeit gibt.
- Die Vision umsetzen: Viele Gründer verlieren sich in glänzenden Ablenkungen. Bleib fokussiert. Setze um, was am wichtigsten ist.
- Gib etwas zurück: Teile deine Erfahrung, unterstütze andere und trage zum Ökosystem bei. Wahre Erfolge sind diejenigen, die überleben, wenn man selbst nicht mehr da ist.
Meine Botschaft ist einfach: Man kann im Geschäftsleben erfolgreich sein, ohne dabei seine Seele zu verkaufen. Rentabilität und Prinzipien sind keine Gegensätze, sondern gehören zusammen.
Philipp, Danke für deine Insights
Hinweis: Dieses Interview wurde ursprünglich auf Englisch geführt und ins Deutsche übersetzt.
KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar
Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.
Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.
Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?
Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.
Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.
Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.
Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.
Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.
Schnelles Wachstum kann zu einem Überschuss führen
Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.
Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.
Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.
Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung
Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.
Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“
Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.
Automatisiertes und datenbasiertes Pflanzenwachstum
Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“
Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.
Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren
Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“
DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau
Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.
NICAMA Naturkosmetik: Von der Studienidee zum nachhaltigen Erfolgsunternehmen
NICAMA Naturkosmetik feiert sein fünfjähriges Bestehen: Was mit kleinen Experimenten während des Studiums begann, ist heute ein etabliertes Naturkosmetikunternehmen mit über 600 Handelspartnern im DACH-Raum.
Was 2019 als mutige Idee von vier Studierenden begann, wurde rasch zu einem inspirierenden Beispiel für gelebte Nachhaltigkeit. In einer Zeit, in der Umweltschutz noch kein selbstverständlicher Trend war, experimentierten die Gründerinnen und Gründer mit festen Shampoos, um eine plastikfreie Alternative zu herkömmlicher Kosmetik zu schaffen. Das erste Produkt entstand mit viel Leidenschaft, Neugier und Improvisation. Damit war der Grundstein für den späteren Unternehmenserfolg gelegt.
Ein erfolgreiches Crowdfunding finanzierte 2019 die erste Produktcharge und machte den Traum vom eigenen Webshop möglich. Es folgten die ersten Partnerschaften mit Bioläden, Outdoorhändlern, Friseuren und Geschenkeläden, die an die Vision glaubten. Heute zählt NICAMA stolz über 600 Vertriebspartner und wächst weiter.
Ein entscheidender Meilenstein war die Entwicklung des 1plus1 Meeresschutz-Prinzips: Für jedes verkaufte Produkt werden 100 Gramm Plastik in Küstenregionen gesammelt. Dieses Prinzip ist transparent, messbar und von jedem/jeder Kund*in nachvollziehbar. Bis heute konnten so über 33.290 Kilogramm Plastik aus der Umwelt entfernt werden. Das entspricht mehr als 3,2 Millionen Plastikflaschen. Darüber hinaus hat das Team mehrere Elbreinigungen organisiert, unter anderem gemeinsam mit der Naturschutzjugend NAJU und Charlotte Meentzen.
Mit dem Schritt in die Upcycling Beauty wurde NICAMA zum Pionier in Deutschland. Dabei werden wertvolle Nebenprodukte aus der Lebensmittelproduktion wie Ingwertrester und Kaffeekirsche zu hochwertigen Inhaltsstoffen verarbeitet. Heute umfasst das Sortiment über 50 plastikfreie Produkte, darunter Seifen, Shampoos, Deocremes, Pflegeöle und Körperpeelings – alle minimalistisch verpackt und mit reduzierten, sorgfältig ausgewählten Rezepturen.
Die Reise war jedoch nicht ohne Herausforderungen: Die Corona Pandemie und die Inflationsfolgen des Ukraine-Krieges setzten auch NICAMA stark zu. Das einst 15-köpfige Team musste sich zwischenzeitlich deutlich verkleinern. Trotz dieser Rückschläge bewies das Unternehmen Durchhaltevermögen. Heute steht es so solide da wie nie zuvor. Seit zwei Jahren verzeichnet NICAMA wieder überdurchschnittliches Wachstum und das deutlich über dem allgemeinen Naturkosmetikmarkt in Deutschland.
Für sein Engagement und seine Innovationskraft wurde das Unternehmen mehrfach ausgezeichnet: 2021 gewann NICAMA den Sächsischen Gründerpreis und erhielt bereits viermal den eku Zukunftspreis des Sächsischen Staatsministeriums für Umwelt und Landwirtschaft.
GreenTech – der Boom geht zu Ende
Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.
Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.
Der Boom geht zu Ende
„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze. „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“
Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich. Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“
Herausforderungen im deutschen GreenTech-Sektor
Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte. Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“
Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit
„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“
Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“
Politik und Wirtschaft in gemeinsamer Verantwortung
Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“
Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.
Die Top 10 Grafikdesigntrends 2026
Grafikdesign setzt Impulse, um dein Branding aufzufrischen, deine Marke gekonnt zu inszenieren oder deine Zielgruppe persönlich und emotional anzusprechen. Daher gut zu wissen: Diese zehn Grafikdesigntrends werden von den Profis aktuell favorisiert.
2026 wird das Jahr, in dem Grafikdesign Menschlichkeit betont. Während KI im Alltag eine immer größere Rolle spielt, wächst die Sehnsucht nach Echtheit – nach Entwürfen, die berühren. Zu diesem Schluss kommt das Expert*innen-Team von VistaPrint auf Basis der umfassenden Beobachtungen seiner internationalen Freelancer-Community auf 99designs by Vista.
Die zentrale Erkenntnis: Grafikdesign wird wieder deutlich persönlicher. Es zeichnet sich ab, dass sich die Trends weg vom Glatten, hin zum Echten entwickeln. Marken wollen bei ihren Zielgruppen Gefühle wecken und setzen deshalb auf Geschichten statt Marketingbotschaften. So wird Design zur Bühne für Individualität und damit zum wirksamsten Werkzeug, um echte Verbindungen aufzubauen.
„Kleine Unternehmen haben den entscheidenden Vorteil, mutig, eigenwillig und authentisch auftreten zu können – großen Marken fällt das oft schwer,“ weiß Patrick Llewellyn, VP of Digital and Design Services bei VistaPrint. „In unserer laut und unpersönlich gewordenen Welt wirken unperfekte Designs ehrlich. Genau das macht sie so kraftvoll.“
Die Designtrends 2026 holen das Handgemachte ins Digitale, erzählen von kultureller Identität, feiern Unvollkommenheit und lassen Gefühle sichtbar werden. Nicht der Algorithmus, sondern der Mensch steht im Mittelpunkt.
Die Designtrends 2026 im Überblick:
Elemental Folk
Tradition trifft moderne Gestaltung: Inspiriert von regionaler Handwerkskunst und kulturellem Erbe, entstehen warme, ausdrucksstarke Designs mit floralen Mustern, ornamentalen Details und kräftigen Farben. Die Gestaltung wirkt vertraut und zeitgemäß zugleich. Elemental Folk ist ein visueller Rückgriff auf das Ursprüngliche, der die Identität und Herkunft feiert.
Hyper-Individualism
Dieser Trend bringt frischen Wind ins Design. Er setzt auf surreale Bildwelten, spielt mit verzerrten Formen und bricht ganz bewusst mit Konventionen. Die Darstellungen wirken mal verspielt, mal provokant, aber immer individuell. Während viele ihre Gestaltungsprozesse komplett von der künstlichen Intelligenz erledigen lassen, begeistert dieser Stil mit der kreativen Handschrift der Menschen.
Tactile Craft
Stickerei, Stoffstrukturen und handgemachte Details finden ihren Weg zurück ins digitale Design. Was dabei entsteht, fühlt sich fast schon greifbar an: Die visuellen Oberflächen erzeugen eine besondere Tiefe, die den BetrachterInnen Wärme spendet. Zwischen DIY-Charme und nostalgischer Anmutung generiert dieser Trend – als Gegenentwurf zur glatten, oft distanzierten Ästhetik der digitalen Welt – eine emotionale Nähe.
Distorted Cut
Wenn Gestaltung zum Widerstand wird, entstehen visuelle Statements mit Ecken und Kanten. Klassische Collage-Techniken werden neu interpretiert, indem Bilder zerschnitten, Schichten überlagert und Formen fragmentiert werden. Das Ergebnis wirkt roh, rebellisch und voller Energie. Fest steht: Dieser Designstil will nicht gefallen – es geht darum, Haltung zu zeigen.
Candid Camera Roll
Kreative bringen mit diesem Trend das Echte zurück ins Visuelle. Unperfekte Schnappschüsse, Filmkorn, Blitzlicht und spontane Momente wirken persönlich und nahbar. Im Zusammenspiel mit reduzierter Typografie entstehen Designs, die mit ihrer Ehrlichkeit wirken und berühren.
Hyper-Bloom
Manchmal braucht es einen visuellen Rückzugsort – einen Ort zum Durchatmen. Sanfte Verläufe, zarte Blumenmotive und pudrige Pastelltöne entführen in eine Welt zwischen Traum und Realität. Der Stil wirkt wie ein Gegenpol zum hektischen Alltag und öffnet Raum für Leichtigkeit, Optimismus und ein bisschen Tagträumerei.
Digit-Cute
Die Ästhetik bewegt sich zwischen Nostalgie und digitaler Verspieltheit und sorgt vom ersten Moment an für richtig gute Laune. Klare Strukturen treffen auf bunte Pixelgrafiken, niedliche Figuren und kräftige Farben. Der Look versprüht den Charme der frühen Computerspiele und Popkultur. Gerade weil er so verspielt wirkt, ist er gestalterisch besonders raffiniert.
Micro-Industrial
Was früher rein funktional war, wird jetzt zum Gestaltungskonzept. Inspiriert von Verpackungen, technischen Etiketten und Informationsgrafiken bildet sich ein Designstil, der Klarheit feiert. Der gezielte Einsatz von Elementen wie Barcodes, QR-Codes und Rasterstrukturen verleiht den Entwürfen eine rohe, sachliche und zugleich moderne Ästhetik.
Neon Noir
Dunkel, intensiv und voller Spannung – der Stil erinnert an Szenen aus einem Neo-Noir-Film. Knallige Farben, wie elektrisches Rot, treffen auf tiefes Schwarz, kombiniert mit Bewegungsunschärfen und rauen Texturen. Der urbane, energiegeladene Look fällt sofort ins Auge und bleibt lange im Kopf.
Frutiger Aero Revival
Ein Hauch von Zukunft, so wie man sie sich früher vorgestellt hat: Glänzende Oberflächen, sanfte Farbverläufe und fließende Formen knüpfen an die Tech-Ästhetik der frühen 2000er an. Elemente wie Wasser, Himmel oder digitale Pflanzenwelten verleihen den Designs eine fast träumerische Leichtigkeit. Der Stil ist eine liebevolle Rückschau in eine Zeit, in der Technologie noch als Versprechen galt.
Fazit
Design darf wieder fühlen, Haltung zeigen und Ecken haben. Um als Marke aufzufallen, braucht man nicht mehr das glatteste Logo oder das perfekteste Bild, sondern Persönlichkeit, Mut und eine klare Botschaft. 2026 wird das Jahr, in dem Echtheit zählt. Das Beste daran: Es wird kreativ, lebendig und überraschend schön.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Report: Quantencomputing
Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.
Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.
Herausforderungen
Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.
Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.
Trends
In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.
Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.
Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintrittsbarrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.
Die Rolle von Start-ups
Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.
Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.
Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.
Deutsche QC-Start-ups mischen ganz vorne mit
Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.
Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.

