Aktuelle Events
Berliner Start-up stromee mischt den Energiemarkt mit Marktplatzkonzept auf
Stromee ist ein digitaler Ökostromanbieter. Seit 2022 bietet das von Waldemar Wunder und Mario Weißensteiner gegründete Energie-Start-up Ökostrom über seinen digitalen Marktplatz an.
Grün, dezentral und digital: Das Berliner Clean-Energy-Start-up stromee mischt mit seinem Marktplatzkonzept seit einem Jahr den Energiemarkt kräftig auf. Seit dem Start konnte der Ökostromanbieter seine Kundenzahl nach eigenen Angaben mehr als verdoppeln. Bereits über 80.000 Menschen beziehen aktuell Ökostrom von selbstgewählten dezentralen Erzeugungsanlagen. Dadurch werden bereits jetzt jährlich etwa 48.000 Tonnen CO2 eingespart. Dies entspricht den Emissionen von circa 17.000 Mittelklasse-PKWs mit einer durchschnittlichen Fahrleistung von 15.000 km pro Jahr.
“Unser Ziel ist es, den Energiemarkt nicht nur zu digitalisieren, sondern auch ökologisch wertvoll und nachhaltig zu gestalten. Dafür arbeiten wir mit unabhängigen Erzeugern zusammen, die ihren produzierten Ökostrom aus Biogas, Solar- oder Windenergie ins Stromnetz einspeisen”, erklärt Mario Weißensteiner, Gründer und CEO von stromee.
Photovoltaikanlage “Frauenpower” und Milchviehbetrieb mit Biogasanlage
Die Idee hinter dem Marktplatz-Konzept von stromee ist gänzlich einfach: Erzeuger*innen erneuerbarer Energien bieten ihren Strom auf der Online-Plattform an. Verbraucher*innen können dann zwischen den aktuell 18 unabhängigen Erzeuger*innen und der jeweiligen nachhaltigen Energiequellen wählen. Hinter jedem/jeder Energieerzeuger*in steckt nicht nur eine eigene Anlage zur Herstellung von Ökostrom, sondern auch eine ganz eigene Geschichte.
Beispiel 1: Die Photovoltaikanlage “Frauenpower” betreiben Klara und Kerstin aus Mecklenburg-Vorpommern. Mit der Menge an Strom, die sie mit ihrer Solaranlage erzeugen, könnten die beiden Frauen 75.000 Kuchen pro Jahr backen. Sie haben sich aber dafür entschieden, ihren Strom einzuspeisen.
Beispiel 2: Die Historie der Familie Stockert und ihrem Bauernhof reicht bis ins 15. Jahrhundert zurück. Neben ihrem Milchviehbetrieb hatten Steffen und Stefanie Stockert schon vor 20 Jahren die Idee, mit einer Biogasanlage Reststoffe aus dem Stall effizient zu verwerten. Seit einigen Jahren betreiben sie diese und verwerten dort bis zu 85 Prozent der Reststoffe aus dem landwirtschaftlichen Betrieb, um erneuerbare Energie zu erzeugen.
Mit der Unterstützung kleinerer Erzeuger möchte das Start-up die Energiewende in Deutschland nicht nur mitgestalten, sondern vorantreiben. Das gleiche Ziel haben auch Verbraucher*innen, die sich für stromee als Ökostromanbieter entscheiden. Diese sind zum größten Teil (65 Prozent) männlich, unter 30 Jahre oder zwischen 44 und 60 Jahren alt, tendenziell Normalverdiener und wohnen in einem Single- oder in einem Mehrfamilienhaushalt.
Choose, Monitor,Control
stromee Mitbegründer und CEO Waldemar Wunder betrachtet das Thema erneuerbare Energie ganzheitlich und möchte eine gesamtheitliche Lösung schaffen. Mit dem Ansatz “Choose, Monitor,Control” möchten wir, neben der Gewinnung von erneuerbaren Energien, ganzheitliche Lösungen schaffen. Unsere Vision ist es mit stromee von der Energieerzeugung über Energiemonitoring bis Energiemanagement alles aus einer Hand anzubieten.”
Die ersten Schritte dafür sind bereits getan. Mit dem smarten Stromauslesegerät stromee+, welches sich noch in der Beta-Testphase befindet, können Verbraucher*innen dann in Echtzeit Informationen über ihren Stromverbrauch über das Smartphone abrufen.
Ein großes Ziel für die kommenden Jahre hat sich der grüne Ökostromanbieter bereits gesetzt. Bis 2030 möchte stromee eine Million Menschen in Deutschland mit echtem Ökostrom und eigenen Smart Home Produkten versorgen.
Diese Artikel könnten Sie auch interessieren:
Wie viel verdienen Twitch Streamer wirklich? Zahlen und Verdienstmöglichkeiten im Blick
Wer als passionierter Spieler noch nicht an eine Gaming Karriere gedacht hat, sollte dies jetzt nachholen: Schließlich ergeben sich aus dieser von Esport-Turnieren bis hin zum Streaming einige Verdienstmöglichkeiten. Creatoren verdienen mit der Echtzeit-Übertragung ihres Spielerlebnisses Geld. Was sich einfach anhört, kann für so manchen Spieler auch zum komplexen Unterfangen werden. Wie hoch der Streamer Verdienst in diesen Fällen ausfällt und welche Einnahmemöglichkeiten es für Twitch Streamer noch gibt, erfahren Sie hier.
Die Top 10 Twitch Streamer im Jahr 2025
„Es gewinnt nicht der beste Spieler, sondern der beste Entertainer.“ |
Auf Plattformen wie Twitch gilt: Die Community beeinflusst stark, wie viel Geld Streamer verdienen können. Wer eine starke Zuschauergemeinde aufbauen kann, freut sich in der Regel über ein höheres Einkommen – dabei spielt vor allem die Interaktion der Viewer eine zentrale Rolle.
Aktuell weisen diese top 10 Twitch Channels die höchsten Zuschauerzahlen vor:
Streamer | Durchschnittliche Zuschauerzahl | Follower |
126.449 | 19,8 Millionen | |
52.024 | 7,9 Millionen | |
46.844 | 3,3 Millionen | |
36.903 | 2,2 Millionen | |
29.320 | 2,2 Millionen | |
71.045 | 1,5 Millionen | |
31.839 | 1,5 Millionen | |
42.837 | 1,4 Millionen | |
34.996 | 1,1 Millionen | |
30.438 | 993.817 |
Geld verdienen mit Streaming: Diese Faktoren wirken sich auf Twitch Einnahmen aus
Die Twitch-Einnahmen der verschiedenen Streamer setzen sich aus unterschiedlichen Verdienstquellen zusammen. So können die Kontoinhaber Werbung in ihren Live-Übertragungen schalten, die ihnen je nach Zuschauerzahl und Länge der Werbepause einen kleinen bis mittleren Betrag einbringen. Hierbei handelt es sich jedoch um ein eher statisches Nebeneinkommen, das die meisten Streamer auch als nebensächlich empfinden. Den größeren Teil des Twitch Einkommens machen Abonnements und Spenden der Zuschauer aus, aber auch Sponsoring und Markenpartnerschaften.
Übrigens: Twitch Auszahlungen erfolgen automatisch via PayPal oder Banküberweisung, sofern ein gewisser Mindestbetrag erreicht wurde. In diesem Zusammenhang bieten mobile casinos, ähnlich wie Streaming-Plattformen, eine bequeme Möglichkeit für Spieler, jederzeit und überall zu spielen, ohne auf traditionelle Zahlungsmethoden angewiesen zu sein. Diese Art von Plattformen hat sich zu einer beliebten Option entwickelt, da sie den Nutzern schnelle Auszahlungen und einfache Handhabung bieten.
Twitch Daten Leak 2021: Das verdienen Top-Streamer
Ende 2021 wurde die bekannte Plattform Twitch gehackt. Bei einem Datenleck kam heraus, dass die 2014 von Amazon gekaufte Plattform kaum Sicherheitsvorkehrungen geschaffen hatte – weshalb große Teile des Programmiercodes sowie Login-Daten und Zahlen zum Streamer Verdienst veröffentlicht werden konnten. Zu sehen waren vor allem die Gesamteinnahmen der Top Spieler aus den Twitch Statistiken des Zeitraumes August 2018 bis Oktober 2021 in US-Dollar:
- CriticalRole: 9,6 Millionen
- xQc: 8,5 Millionen
- summit1g: 5,8 Millionen
- Tfue: 5,3 Millionen
- Nickmercs: 5,1 Millionen
Zum Vergleich: Der deutsche Twitch Streamer Marcel Eris (alias MontanaBlack88) hat über Twitch 2,4 Millionen US-Dollar eingenommen. Der Streamer MontanaBlack88 gehört zu den bestbezahlten deutschen Spielern auf Twitch.
Damit werden die großen Unterschiede zwischen den Verdiensten der Streamer aus Deutschland und den USA deutlich. Rund vier Millionen Deutsche verfolgen Twitch-Übertragungen – und das sogar täglich. In den USA liegt die tägliche Zuschauerzahl bei stolzen 35 Millionen Nutzern, sodass amerikanische Streamer auch einen deutlich größeren Markt bedienen und die Einkommensunterschiede nicht verwunderlich sind. MontanaBlack88 ist allerdings auch auf anderen Plattformen wie YouTube zu finden, sodass sein Gesamtverdienst womöglich deutlich höher liegt.
Gut zu wissen: Twitch Partner (von Twitch ausgewählte Streamer mit qualitativem Content) können sich über höhere Einnahmen freuen – etwa einen höheren Anteil aus dem Abonnenten-Verdienst.
Im Detail: So setzt sich der Verdienst zusammen
Wie eingangs erwähnt, verdienen Twitch Streamer vor allem durch Abonnenten einen großen Teil ihres Einkommens. Das Abonnement kostet Subscribern in der ersten Stufe 4,99 Euro – wovon Streamer in der Regel 50% (2,50 Euro) behalten dürfen. Dafür erhalten Abonnenten bestimmte Vorteile wie etwa die Möglichkeit, per Chat mit dem Streamer interagieren zu können. Wer also 1.000 Abonnenten hat, kann deshalb schon mit Einnahmen von 2.500 Euro monatlich rechnen.
Einen Großteil ihrer Einnahmen generieren Gaming-Streamer aber auch mit Hilfe von Subscriber-Spenden. Diese werden in Twitch Bits genannt und von der Plattform ausgezahlt. Die Spenden rufen bei einigen Streamern emotionale Reaktionen hervor, was wiederum mehr Menschen zum Spenden anregt.
Eine weitere Möglichkeit stellt Affiliate-Marketing dar: Streamer bewerben in dem Fall für ihre Zuschauer interessante Produkte in ihren Videos. Kaufen Zuschauer die Produkte, profitieren Streamer von einer Provision – die nicht selten 30% des Kaufbetrages ausmacht.
Sponsoren und Markendeals als größte Einnahmequelle für Streamer
An Streamer mit besonders hohen Zuschauer- und Followerzahlen treten oft auch bekannte Marken heran. Sie bezahlen die Gamer dafür, ihre Produkte im Live-Stream anzupreisen – beispielsweise Gaming-Peripherie oder Energy-Drinks. Soll dies über einen längeren Zeitraum geschehen, werden solche Marken oft auch zum Sponsor des Spielers, um ihre eigene Reichweite zu erhöhen.
Kosten und Abzüge: Dem steht der Streamer Gehalt in Deutschland gegenüber
Die genannten Streamer Gehälter stellen Brutto-Summen dar – also den Verdienst vor Abzug der deutschen Einkommens-, Umsatz- und Gewerbesteuer, sowie Sozialversicherungen. Wer all diese Beträge zusammenzählt, muss oft bis zu 45% seines Brutto-Einkommens an den Fiskus abführen. Doch damit nicht genug: Die meisten Twitch-Streamer müssen auch Chat-Moderatoren bezahlen, die für eine angenehme Atmosphäre unter den Kommentierenden sorgen und Community-Richtlinien durchsetzen.
Darüber hinaus wollen sich Zuschauer nur Streams ansehen, die eine hohe Qualität aufweisen. Um leistungsstark spielen und den Verlauf optimal übertragen zu können, brauchen Streamer bestimmtes Gaming-Equipment, das selbst zwischen 2.000 und 10.000 Euro kosten kann. Auch eine stabile Internetverbindung und die damit verbundenen Kosten sind zu bedenken.
Alternative Plattformen zur Diversifizierung
Um noch mehr Einkommen zu generieren, können passionierte Spieler ihre Streams allerdings zusätzlich auf anderen Plattformen veröffentlichen und monetarisieren – beispielsweise durch Werbung und Affiliate-Marketing. Zur Diversifizierung kommen Plattformen wie YouTube und Kick in Frage, die teilweise sogar bessere Konditionen bieten. Denn: Bei Kick werden Streamer zu 95% an den Einnahmen durch Abonnements beteiligt, was im Gegensatz zu Twitch deutlich attraktiver erscheint.
to teach: Vom KI-Hype zur Schulinfrastruktur
Wie das 2022 gegründete EdTech to teach die Lücke zwischen Chatbot und Klassenzimmer schließt.
Vor drei Jahren begann mit dem öffentlichen Zugang zu generativer künstlicher Intelligenz ein weltweiter Hype, der auch vor den Schultoren nicht haltmachte. Doch im Bildungsmarkt entscheidet sich derzeit, ob die Technologie tatsächlich Produktivität schafft oder in einer digitalen Sackgasse endet. Das Hamburger EdTech to teach liefert hierzu eine Blaupause: Was 2022 als Experiment begann, hat sich innerhalb von drei Jahren zu einer Arbeitsplattform für hunderttausende Lehrkräfte entwickelt.
Das Problem: US-Tools verstehen deutsche Schulen nicht
Als generative KI erstmals verfügbar wurde, wirkte ihr Einsatz im Bildungsbereich naheliegend. Doch der Blick auf die internationale Konkurrenz zeigt das Dilemma: Während US-Platzhirsche wie MagicSchool AI oder Diffit den Markt mit hunderten Mikro-Tools fluten und technisch beeindrucken, fehlt ihnen der kulturelle Fit. „Einfach nur Texte aus ChatGPT zu kopieren, löst kein einziges Problem von Lehrkräften“, erklärt Felix Weiß, Co-Founder und CEO von to teach.
Die Diskrepanz zwischen dem Versprechen der KI und dem tatsächlichen Schulalltag war groß. US-Lösungen scheitern oft an spezifischen deutschen Lehrplänen oder liefern reine Multiple-Choice-Formate, die hierzulande kaum Anwendung finden. Lehrkräfte benötigten keine unstrukturierten Textwüsten, sondern didaktisch saubere, lehrplankonforme und sofort einsetzbare Materialien. Genau hier setzte das 2022 von Felix Weiß und Marius Lindenmeier gegründete Unternehmen an.
Der Pivot: Datenschutz als Burggraben
Der entscheidende Wendepunkt kam 2023. Das Start-up vollzog einen Strategiewechsel (Pivot) weg von einer SaaS-Lösung für Verlage hin zu einer direkten Plattform für Lehrkräfte. Anstatt Nutzer*innen mit freien Eingabefeldern (Prompts) allein zu lassen, entwickelte das Team feste Arbeitsblattvorlagen. Dies wurde zum entscheidenden Wettbewerbsvorteil gegenüber internationalen Anbietern: Während diese oft an der strikten DSGVO scheitern, bietet to teach durch Serverstandorte in der EU und Rechtssicherheit eine Lösung, die Schulträger akzeptieren.
Dabei mussten technische Kinderkrankheiten überwunden werden: Frühe KI-Modelle „halluzinierten“ Fakten. To teach reagierte mit der systematischen Integration von Quellen und profitierte zugleich von der rasanten Evolution der Sprachmodelle.
Skalierung im Ökosystem gegen nationale Konkurrenz
Der Markt nahm die Lösung schnell an: Im Januar 2023 meldete sich der erste Nutzer an, bis Ende des Jahres waren es laut Unternehmen bereits knapp 16.000 Lehrkräfte. Das Jahr 2024 markierte dann den Übergang vom Start-up zur Plattform: Durch die Übernahme von fobizz (101skills GmbH) wurde to teach Teil eines größeren Bildungsökosystems. Die Gründer blieben als Geschäftsführer an Bord.
Dieser Schritt war strategisch überlebenswichtig in einem sich konsolidierenden Markt. Einerseits gegenüber agilen Herausforderern, da Konkurrenten wie schulKI, Teachino, KIULY oder Kuraplan zum Teil aggressiv um Landeslizenzen kämpfen bzw. auf dem Markt für KI-gestützte Unterrichtsplanung und Materialerstellung durchgestartet sind.
Andererseits war der Schritte in Hinblick auf etablierte Verlage notwendig. Denn Häuser wie Cornelsen ziehen inzwischen mit eigenen KI-Assistenten nach, sperren ihre Inhalte jedoch oft in geschlossene Systeme, d.h. binden sie oft an die eigenen Verlagswerke.
Durch die erfolgreiche Integration in fobizz ist to teach kein isoliertes Insel-Tool mehr, sondern profitiert von bestehenden Landesrahmenverträgen und einem riesigen Vertriebsnetz. Die Nutzer*innenzahlen explodierten förmlich auf über 140.000 Lehrkräfte bis Ende 2024, so die Angaben von to teach.
Status Quo 2025: KI als neue Infrastruktur
Heute, im dritten Jahr nach der Gründung, hat sich der Fokus erneut verschoben. To teach versteht sich inzwischen als Arbeitsinfrastruktur. Die Zahlen unterstreichen diesen Anspruch: Nach Angaben von to teach nutzen über 300.000 Lehrkräfte die Plattform, und mehr als 4.000 Schulen sind angebunden. Das bedeutet: Millionen von Inhalten wurden so bereits KI-gestützt vorbereitet.
Das Unternehmen treibt nun den systematischen Schulvertrieb voran. Damit beweisen EdTechs wie to teach, dass sich Qualität und Personalisierung im sonst oft als innovationsresistent geltenden Bildungsmarkt skalieren lassen.
Für CEO Felix Weiß ist die Diskussion über das „Ob“ längst beendet: „Die Frage ist nicht mehr, ob KI im Klassenzimmer ankommt, sondern, wie und auf welche Weise sie dort wirklich hilft.“
Social Engineering auf dem Vormarsch
Wie Deepfakes die Sicherheit von Führungskräften stärker in den Fokus rücken.
Fotorealistische KI liefert innerhalb von kürzester Zeit realistische Visuals. Was in vielerlei Hinsicht den Arbeitsalltag erleichtert, bedeutet für Social Engineering jedoch eine neue Eskalationsstufe, wie nicht zuletzt die hitzige Debatte um massenhaft sexualisierte Deepfakes von realen Personen durch Grok eindrücklich vor Augen führte.
Auch Personen in leitenden Funktionen in Unternehmen sind vor solchen Manipulationen nicht gefeit. Zunehmend zielen Angriffe auf Menschen mit Zugriffsrechten und Entscheidungsbefugnissen, deren Freigaben unmittelbare Wirkung auf die Sicherheit einer ganzen Organisation haben. „Fotorealistische KI und hybride Social-Engineering-Kampagnen erhöhen den Druck auf Schlüsselpersonen. Daher brauchen Unternehmen belastbare Verifikationsprozesse, Krisenroutinen und integrierte Schutzkonzepte“, erklärt Markus Weidenauer, geschäftsführender Gesellschafter der SecCon Group GmbH.
Deepfakes zielen auf privates Umfeld
Nach Angaben des Bundesamts für Sicherheit in der Informationstechnik (BSI) lassen sich Deepfakes als Verfahren beschreiben, die gezielt Spear-Phishing und andere Social-Engineering-Angriffe nutzen, um Vertrauen aufzubauen und Autorität zu simulieren. Generative KI fungiert dabei als zentraler technischer Enabler, da sie die realistische Erzeugung manipulativer Audio-, Video- und Textinhalte erstmals in industriellem Maßstab ermöglicht. „Die eigentliche Bedrohung ergibt sich dabei nicht aus einzelnen KI-generierten Inhalten, sondern aus deren koordinierter Nutzung“, weiß der Sicherheitsexperte.
Infolge der steigenden Qualität und der zunehmenden Verfügbarkeit generativer KI wird es darüber hinaus zunehmend schwieriger, Fakt von Fiktion zu unterscheiden „Zwar können isolierte Inhalte für sich betrachtet zweifelhaft sein, doch das konsistente Zusammenspiel mehrerer manipulierter Medieninhalte erhöht die wahrgenommene Glaubwürdigkeit erheblich“, ergänzt der Profi und weist darauf hin, dass sich diese Entwicklung in der Praxis zuspitzt. „Social Engineering, Deepfakes und digitale Erpressung werden immer häufiger mit Observationen des privaten Umfelds sowie Angriffen auf die Heim-IT kombiniert. Durch diese Eskalation der Angriffsmittel bauen Täter gezielt psychologischen Druck auf, der die Widerstandsfähigkeit der Betroffenen weiter reduziert.“
Risiken kennen, Wege einüben
Kompromittierte Schlüsselpersonen mit Steuerungs- und Entscheidungsfähigkeiten bergen hohes Schadenspotenzial für Betriebe. Das reicht von unmittelbaren finanziellen Verlusten bis zu dauerhaften Reputationsschäden. Dieses Risiko wird insbesondere dort verstärkt, wo organisatorische und prozessuale Absicherungen fehlen. „Resilienz bedeutet aber, auch in potenziellen Krisensituationen sichere Entscheidungen treffen zu können“, betont Markus Weidenauer. Trotzdem mangelt es vielen Unternehmen sowohl an speziellen Trainings zum Thema Social Engineering als auch an Meldewegen, klaren Freigabeprozessen, die auch unter Druck funktionieren, sowie alternativen Kommunikationskanälen. „Nur wenn Mitarbeiter diese Strukturen kennen und regelmäßig einüben, entsteht eine Kultur, in der eine frühzeitige Eskalation in der Meldekette als notwendiger Beitrag zur Sicherheit des gesamten Betriebs wahrgenommen wird“, fügt Markus Weidenauer hinzu.
Dringender Handlungsbedarf in Unternehmen
Um hier Abhilfe zu schaffen, verabschiedete im September 2025 das Bundeskabinett das sogenannte KRITIS-Dachgesetz zur Stärkung der Resilienz kritischer Einrichtungen. Es verpflichtet die Unternehmensleitung, Schutz- und Präventionsmaßnahmen umzusetzen, deren Wirksamkeit nachzuweisen ist. Der dem Regelwerk zugrunde liegende All-Gefahren-Ansatz fordert, dabei physische, digitale und organisatorische Dimensionen gemeinsam zu betrachten. „Auch wenn Führungskräftesicherheit hier kein eigener Rechtsbegriff ist, sollte sie Teil der Anforderungen an ein modernes Sicherheitsmanagement sein“, so der Geschäftsführer der SecCon Group.
Das bedeutet: Führungskräfte etwa vor Erpressungsversuchen durch Social Engineering zu schützen, ist weder persönlicher Luxus noch Symbolpolitik, sondern ein Element der nachweisbaren Unternehmensresilienz. Schließlich ist die Sicherung von Steuerungs- und Entscheidungsfähigkeit ein Governance-Baustein. Nicht die Person steht im Mittelpunkt, sondern die Handlungsfähigkeit des Instituts.
Report: Inside Germany’s EnergyTech Market
Aktuelle Ein- und Ausblicke für Gründer*innen und Start-ups im EnergyTech-Markt.
EnergyTech gehört in Deutschland zu den spannendsten, aber auch herausforderndsten Märkten für Gründer*innen. Die Kombination aus technologischer Innovation, wirtschaftlichem Potenzial und der Dringlichkeit, das Energiesystem klimaneutral zu gestalten, schafft enorme Chancen. Gleichzeitig ist die Eintrittsbarriere hoch, denn der deutsche Energiemarkt ist einer der komplexesten und am stärksten regulierten weltweit.
Laut der Internationalen Energieagentur werden im Jahr 2025 weltweit rund 2,1 Billionen Euro in saubere Energien investiert. Damit übertreffen die Investitionen in erneuerbare Energien erstmals die in fossile Brennstoffe deutlich. Deutschland spielt dabei eine zentrale Rolle, denn kein anderes Land in Europa verfügt über eine vergleichbare Durchdringung mit erneuerbaren Energien. Diese Vorreiterrolle macht den Markt attraktiv, aber auch kompliziert.
Gründer*innen, die in diesem Umfeld aktiv werden, müssen verstehen, dass Erfolg hier weniger von reiner Technologie abhängt, sondern von der Fähigkeit, sich in einem vielschichtigen System aus Regularien, Netzstrukturen und politischen Rahmenbedingungen zu bewegen. Es reicht nicht, eine gute Idee zu haben. Entscheidend ist, wie diese Idee in ein System passt, das auf Stabilität, Versorgungssicherheit und langfristige Planung ausgelegt ist.
Deutschlands Energiemarkt zwischen Stabilität und Veränderung
Der deutsche Energiemarkt gilt als hoch reguliert, gleichzeitig aber auch als offen für neue Akteur*innen. Wer hier tätig werden will, findet klar definierte Wege, um als Energieversorger*in zugelassen zu werden. Doch der Weg dorthin ist gesäumt von Genehmigungen, Netzanschlussverfahren und Förderbedingungen.
Die Stabilität des Systems steht über allem. Jede Veränderung im Netz kann weitreichende Folgen haben, weshalb die Regulierung streng überwacht wird. Netzbetreiber*innen müssen ständig das Gleichgewicht zwischen Erzeugung und Verbrauch sichern, um Versorgungsstörungen zu vermeiden. Das führt dazu, dass Innovationen nur schrittweise eingeführt werden können.
Hinzu kommt die dezentrale Struktur des Energiesystems. Deutschland hat den Umbau seiner Energieversorgung regional organisiert, was zu einer Vielzahl von kleinen Akteur*innen führt. Ob Solaranlagen auf Privathäusern, Windparks in ländlichen Regionen oder Batteriespeicher in Städten, alle müssen an das öffentliche Netz angeschlossen werden. Dieses Netz ist die Lebensader des Systems, aber gleichzeitig ein Flaschenhals. Jede neue Installation benötigt einen Netzanschluss, und die Wartezeit kann sich über mehrere Jahre erstrecken.
Diese Verzögerungen sind eine der größten Herausforderungen für Start-ups. Klassische Wachstumsmodelle, die auf schnelle Skalierung ausgelegt sind, stoßen hier an ihre Grenzen. Gründer*innen müssen lernen, mit langen Planungszeiträumen zu arbeiten und ihre Finanzierungsstrategie darauf abzustimmen. Softwarelösungen können helfen, Prozesse zu vereinheitlichen und Transparenz zu schaffen. Doch auch hier gilt: Der deutsche Markt lässt sich nicht einfach durch Technologie beschleunigen. Erfolg entsteht durch Anpassungsfähigkeit, Vertrauen und Systemverständnis.
Innovation im System statt Disruption von außen
Viele Start-ups treten mit dem Ziel an, Märkte zu verändern oder bestehende Strukturen zu durchbrechen. In der Energiebranche stößt dieser Ansatz jedoch schnell an seine Grenzen. Das Energiesystem ist keine klassische Konsumlandschaft, sondern Teil der kritischen Infrastruktur. Es versorgt Millionen Menschen und Unternehmen mit Strom, Wärme und Mobilität. Jede Veränderung muss sorgfältig integriert werden, um Stabilität zu gewährleisten.
Statt auf radikale Umbrüche zu setzen, braucht es eine Haltung der systemischen Innovation. Erfolgreiche EnergyTech-Unternehmen arbeiten mit dem System, nicht gegen es. Sie schaffen Lösungen, die bestehende Prozesse verbessern und den Übergang zur Klimaneutralität erleichtern. Unternehmen wie Gridx, EV.Energy, Enspired, Reev oder Thermondo zeigen, wie das funktionieren kann. Sie haben ihre Geschäftsmodelle so aufgebaut, dass sie technologische Exzellenz mit regulatorischer Konformität und gesellschaftlicher Akzeptanz verbinden.Für Gründer*innen bedeutet das, sich früh mit Netzbetreiber*innen, Behörden und Installationsbetrieben zu vernetzen. Der Aufbau von Vertrauen ist im Energiesektor ein strategischer Vorteil. Wer die Abläufe in Kommunen, Stadtwerken und öffentlichen Einrichtungen versteht, kann die langen Vertriebszyklen besser steuern und Pilotprojekte realistisch planen.
Warum gute Ideen im Energiemarkt oft scheitern
Die Gründe für das Scheitern von EnergyTech-Start-ups liegen selten in der Technologie. Viel öfter sind es strukturelle oder strategische Fehler. Der Verkauf an Energieversorger*innen oder kommunale Betriebe dauert oft mehrere Jahre. Wer in dieser Zeit nicht über ausreichend Kapital und Geduld verfügt, läuft Gefahr, aufzugeben, bevor der Markteintritt gelingt.
Ein weiterer kritischer Punkt ist die Zusammensetzung des Teams. In vielen Fällen sind Teams stark technisch geprägt, während Marktverständnis, politische Kompetenz und regulatorisches Wissen fehlen.
Auch die Wahl der Investor*innen spielt eine entscheidende Rolle. Kapitalgeber*innen, die nur finanzielle Rendite erwarten, sind im Energiemarkt selten die richtige Wahl. Wichtiger sind Investor*innen, die strategischen Netzwerke öffnen, Kontakte zu Stadtwerken oder Netzbetreiber*innen vermitteln oder bei der Skalierung unterstützen. Eine gut strukturierte Cap Table mit klaren Verantwortlichkeiten schafft dabei Transparenz und Vertrauen.
Darüber hinaus müssen Gründer*innen ihre Wirkung belegen können. Im Energiemarkt zählt nicht nur der technologische Fortschritt, sondern auch der nachweisbare Beitrag zur Dekarbonisierung. Wer den Carbon Return on Investment klar beziffern kann, wer Pilotprojekte erfolgreich umsetzt und belastbare Daten liefert, überzeugt Kund*innen, Partner*innen und Investor*innen gleichermaßen. Greenwashing hingegen ist ein reales Risiko. Der Markt erkennt schnell, wer nur mit Nachhaltigkeit wirbt, ohne messbare Ergebnisse zu liefern.
Strategien und praxisnahe Tipps für Gründer*innen
Es gibt mehrere zentrale Hebel, mit denen Gründer*innen die typischen Hürden im deutschen Energiemarkt überwinden können. Einer der wichtigsten ist der Aufbau früher Partnerschaften. Kooperationen mit Netzbetreiber*innen, Stadtwerken oder kommunalen Einrichtungen schaffen Glaubwürdigkeit und erleichtern den Zugang zu Genehmigungsprozessen. Wer diese Partnerschaften schon in der Entwicklungsphase aufbaut, versteht die Marktmechanismen besser und kann Projekte effizienter realisieren.
Ebenso entscheidend ist die Zusammensetzung des Teams. Interdisziplinarität ist im Energiesektor kein Luxus, sondern Notwendigkeit. Erfolgreiche Teams vereinen technische, wirtschaftliche und politische Kompetenzen. Sie wissen, wie regulatorische Entscheidungen getroffen werden, welche Förderprogramme relevant sind und wie man Innovationsprojekte in bestehende Strukturen integriert. Ein divers aufgestelltes Team kann Risiken besser einschätzen und Investor*innen überzeugender ansprechen.
Auch die Gestaltung der Cap Table verdient besondere Aufmerksamkeit. Kapitalgeber*innen sollten nicht nur Geld mitbringen, sondern auch strategischen Mehrwert bieten. Kontakte zu Entscheidungsträger*innen, Branchenkenntnis und operative Unterstützung bei Pilotprojekten sind entscheidende Erfolgsfaktoren. Eine transparente Struktur, in der jede Partei klar definierte Rollen hat, fördert Vertrauen und beschleunigt Entscheidungen.
Ein weiterer zentraler Punkt ist die Nachweisbarkeit von Wirkung. Gründer*innen müssen ihren ökologischen und ökonomischen Mehrwert belegen können. Messbare Kennzahlen wie Emissionseinsparungen, Energieeffizienz oder Carbon ROI sind ausschlaggebend, um Glaubwürdigkeit zu schaffen. Pilotprojekte mit belastbaren Ergebnissen überzeugen nicht nur Investor*innen, sondern auch Kund*innen und öffentliche Partner*innen.
Nicht zuletzt braucht es realistische Planung. Genehmigungsprozesse und Netzanschlüsse dauern in Deutschland oft Jahre. Wer dies in der Finanzplanung berücksichtigt und seine Strategie auf gestaffelte Rollouts oder modulare Produktarchitekturen ausrichtet, vermeidet teure Fehlentscheidungen. Skalierung im Energiemarkt bedeutet nicht Geschwindigkeit um jeden Preis, sondern nachhaltiges Wachstum mit stabilem Fundament.
Blick nach vorn: Warum sich Ausdauer lohnt
Trotz aller Hürden bleibt der deutsche Energiemarkt für Gründer*innen besonders attraktiv. Die globalen Trends sprechen eine klare Sprache: Laut der Internationalen Energieagentur (IEA) wird sich die installierte Leistung aus erneuerbaren Energien weltweit bis 2030 voraussichtlich mehr als verdoppeln, angetrieben vor allem durch den rasanten Aufstieg der Solarenergie. Wind- und Speichertechnologien werden ebenfalls stark wachsen, während Start-ups gleichzeitig mit Herausforderungen in Lieferketten, Netzintegration, Finanzierung und politischen Veränderungen umgehen müssen.
Eine aktuelle Zwischenbilanz der Internationalen Agentur für erneuerbare Energien (Irena) zeigt, dass die weltweite neu installierte Leistung 2024 bei rund 582 Gigawatt lag – ein Rekordwert. Gleichzeitig reicht dies nicht aus, um die auf der Uno-Klimakonferenz von Dubai 2023 vereinbarten Ziele zu erreichen, die Kapazität bis 2030 auf 11,2 Terawatt zu verdreifachen. Dazu wären ab sofort jährlich zusätzlich 1.122 Gigawatt nötig. Auch bei der Energieeffizienz hinken die Fortschritte hinterher: Die jährliche Wachstumsrate liegt aktuell bei rund einem Prozent, während vier Prozent notwendig wären.
Für Gründer*innen bedeutet dies, dass die Nachfrage nach innovativen, zuverlässigen und systemgerechten Lösungen weiter steigen wird. Wer sich frühzeitig auf Pilotprojekte einlässt, Netzanschlüsse koordiniert und regulatorische Prozesse kennt, kann einen entscheidenden Vorsprung erzielen. Deutschland bietet durch klare Klimaziele, Förderprogramme und politische Unterstützung zudem ein Umfeld, in dem Innovationen nachhaltige Wirkung entfalten können.
Ausdauer zahlt sich aus, weil die Transformation der Energieversorgung Zeit braucht. Wer heute in Partnerschaften, systemgerechte Lösungen und messbare Wirkung investiert, legt das Fundament für langfristigen Markterfolg. Die Verbindung von Innovation, Skalierbarkeit und nachweisbarem ökologischen Mehrwert wird zum entscheidenden Wettbewerbsvorteil und ermöglicht Gründer*innen, die Energiewende aktiv mitzugestalten.
Der Autor Jan Lozek ist Geschäftsführer von Future Energy Ventures. Als Investor und Wegbereiter der Energiewende unterstützt er Gründer*innen dabei, Technologien für ein klimaneutrales Energiesystem zu entwickeln und fördert innovative Unternehmen.
Infinite Roots: Hamburger BioTech bringt pilzbasierte Gerichte ins Kühlregal
Das 2018 von Dr. Mazen Rizk, Anne-Cathrine Hutz und Dr. Thibault Godard als Mushlabs gegründete Hamburger Start-up Infinite Roots (ehemals Mushlabs) bringt die Vorteile der Pilzwelt erstmals als eigenständige Hauptzutat ins Kühlregal.
Infinite Roots ist ein forschungsgetriebenes BioTech-Unternehmen aus Hamburg. Seit 2018 entwickelt das Unternehmen (zunächst unter dem Namen Mushlab) neuartige Lebensmittel auf Basis von Pilzen – inspiriert vom Myzel, dem unterirdischen Wurzelgeflecht essbarer Pilze. Durch Fermentation schafft Infinite Roots Produkte, die über bloße Fleischalternativen hinausgehen. Das Ziel ist es, eine neue Kategorie zu etablieren: Lebensmittel, die echtes Umami und wertvolle Nährstoffe liefern, mit kurzen Zutatenlisten auskommen und die Umwelt entlasten.
Mit mehr als 60 Expert*innen aus Biotechnologie, Data, Lebensmittelwissenschaft und Kulinarik will das Team neue Standards für Geschmack, Qualität und Nachhaltigkeit setzen und zeigen, dass die Ernährung der Zukunft nicht Verzicht bedeutet, sondern Vielfalt und Genuss.
Die MushRoots-Produkte des Unternehmens sind keine Fleischimitate, sondern bieten ein eigenständiges, pilzbasiertes Geschmackserlebnis. Sie zeichnen sich durch einen saftigen, herzhaften Biss und ausgeprägte Umami-Noten aus. Die Hamburger setzen dabei auf Speisepilze, kombiniert mit vertrauten, hochwertigen Zutaten. Entsprechend bauen die Produkte auf einer natürlichen Zutatenliste auf und verzichten auf künstliche Aromen, Geschmacksverstärker und Farbstoffe. So entsteht ein Geschmackserlebnis, das an herzhafte Hausmannskost erinnert. Die Produkte lassen sich vielseitig im Alltag, etwa als Hack, Bällchen oder Patties.
„Im Kühlregal sehen Konsument*innen seit Jahren dieselbe Logik: Tierprotein hier, Pflanzenprotein dort“, sagt Philip Tigges, CCO/CFO von Infinite Roots. „Mit MushRoots bringen wir nicht nur eine dritte Option ins Regal, sondern kehren auch zu Lebensmitteln mit einer natürlichen Hauptzutat zurück. Pilze bieten einen herzhaften Geschmack, sind vielseitig, in allen gewohnten Rezepten einsetzbar und können kinderleicht zubereitet werden.“
MushRoots setzt dabei auf eine Proteinquelle mit vergleichsweise geringem ökologischen Fußabdruck. Pilze lassen sich lokal und ressourcenschonend kultivieren. „Wir wollten nie ein weiteres Fleischimitat herstellen, sondern eine eigene Kategorie umami-reicher Pilzprodukte schaffen, die durch Charakter und Geschmack überzeugen“, ergänzt Tigges. „Unser Ziel ist es jetzt, Menschen für Pilzprodukte zu gewinnen, ohne dass sie Fleisch vermissen.“
Jetzt meldet Infinite Roots, dass vier MushRoots-Produkte ab sofort bei REWE Nord in Norddeutschland und Billa Plus in Österreich erhältlich sind und damit eine neue Kategorie an Pilz-Produkten in die Kühlregale Einzug gehalten haben.
Gaming & digitale Medien – eine Perspektive für Start-ups?
Diese Voraussetzungen sollten Gründerinnen und Gründer von Start-ups in der Gamingbranche oder der Gestaltung digitaler Medien mitbringen, um erfolgreich zu sein.
Digitale Start-ups verbinden attraktive Zukunftsperspektiven mit einem geringen Startkapital. Für die digitale Generation aktueller Schul- und Universitätsabgänger stellt sich die Frage, ob ein Einstieg in die Gamingbranche oder die Gestaltung digitaler Medien für die Gründung eines Start-ups ausreichen kann. Solche Perspektiven sind gegeben, die neben ausreichend Kreativität eine fundierte Ausbildung in Computertechnik und Business gleichermaßen voraussetzen.
Indie-Games – eine Perspektive für Entwickler?
Noch vor einigen Jahren war die Gamingbranche als Perspektive für Gründer eher unattraktiv. Die großen, internationalen Studios dominierten die Szene, wobei für Triple-A-Titel längst Tausende von Entwicklern an unterschiedlichen Standorten benötigt wurden. Unter dem Zeit- und Kostengrund vieler Studios sowie der Entlassungswelle der letzten Jahre ist es für immer mehr Developer uninteressant, auf die Anstellung in einem der großen Softwarehäuser zu hoffen.
Die unabhängige Entwicklung von digitalen Medien oder Spielen bleibt jedoch beliebt und kann zur Basis eines Start-ups werden. Immer mehr Gamer wenden sich von den überteuerten, großen Marken der Szene ab und vertrauen auf kleinere Entwickler mit mehr Freiheiten bei der Umsetzung. Selbst die großen Gaming-Plattformen halten regelmäßig eine Auswahl beliebter und neuer Indie-Games für Millionen Nutzer bereit.
Unabhängig von Größe und Art eines Studios bleibt die Gamingbranche international und setzt verschiedene Skills vom Development bis zum erfolgreichen Marketing voraus. Dies alles lässt sich längst in speziell abgestimmten Studiengängen erlernen.
Spielentwicklung der neuesten Generation als Studiengang
Studiengänge wie Games & Immersive Media an der Hochschule Furtwangen erlauben es, einen Bachelor im Gaming-Umfeld zu erlangen und alle relevanten Fähigkeiten für den zukünftigen Berufsweg zu gewinnen. Neben Computer Science und Anwendungen im spielerischen Bereich nehmen Business, Design und Medien als zweiter Bereich einen wesentlichen Stellenwert im Studium ein.
Diese Kombination des bilingualen Studiengangs ergibt Sinn. Schließlich ist nicht jeder kreative Programmierer und Spieleentwickler ein Geschäftsmann, genauso wenig wie Marketer gerne stundenlang mit Quellcode arbeiten. Moderne Studiengänge wie dieser führen beide Welten zusammen und sorgen für eine fundierte Ausbildung, um tiefe Einblicke in beide relevanten Arbeitsfelder zu gewinnen.
Starke Unterstützung für zukünftige Start-ups
Die Hochschule Furtwangen geht mit ihrer Unterstützung weit über den reinen Studiengang hinaus. Bewusst wird angehenden Start-ups unter die Arme gegriffen, die ihre ersten Schritte ins Gaming-Business mit kreativen Spielen und Studienprojekten gehen möchten.
Neben einer umfassenden Beratung auf dem Weg zum eigenen Business werden ein Support für Fördermittel sowie Räumlichkeiten für das gemeinschaftliche Arbeiten an Spielen oder digitalen Medien geboten. Viele Formalitäten und Unsicherheiten, die sich bei Start-ups unabhängig von Branche und Geschäftsfeld ergeben, werden so seitens der Hochschule kompetent und professionell unterstützt.
Für den Einstieg sind Kenntnisse im Gaming-Bereich ideal, die über die reine „Freude am Zocken“ hinausgehen. Kreativität in der Planung und Umsetzung eigener Projekte sollte nachgewiesen werden – anders als die zwingende Notwendigkeit, eine Programmiersprache zu beherrschen.
Sichtbarkeit im digitalen Umfeld entscheidend
Wie bei allen Produkten entscheidet weniger die tatsächliche Qualität, sondern die Sichtbarkeit und eine wirkungsvolle Werbung über Erfolg von Misserfolg von Games. Gerade das Marketing für digitale Produkte ist wegen der hohen Konkurrenz und einer Fülle an Informationen in der digitalen Welt eine immense Herausforderung. Hier eine fachkundige Unterstützung von Anfang an zu erhalten, bewahrt Entwickler und kreative Köpfe davor, grundlegende Fehler zu begehen und frühzeitig den Traum vom Gaming-Job zu begraben.
KI-Modelle erfolgreich im Unternehmen einführen
Worauf es bei der Implementierung von KI wirklich ankommt.
Künstliche Intelligenz (KI) gewinnt in Unternehmen zunehmend an Bedeutung. Sie kann Prozesse beschleunigen, große Datenmengen sinnvoll nutzbar machen und Entscheidungen unterstützen. Doch in der Praxis zeigt sich: Moderne Technologie allein führt noch nicht zum Erfolg. Entscheidend ist ein strukturiertes Vorgehen, bei dem Ziele klar definiert, Daten sorgfältig vorbereitet und organisatorische Rahmenbedingungen von Beginn an berücksichtigt werden. „Viele KI-Initiativen scheitern daran, dass am Anfang die Orientierung fehlt“, sagt Benedikt Weber, Geschäftsführer der applord GmbH. „Struktur schafft Entscheidungsfähigkeit – noch bevor über konkrete KI-Modelle gesprochen wird.“
Organisatorischer Wandel und Einbindung der Mitarbeitenden
Der Einsatz von KI verändert Arbeitsabläufe, Verantwortlichkeiten und Entscheidungswege. Mitarbeitende arbeiten verstärkt mit automatisierten Systemen zusammen, Aufgaben verschieben sich, Rollen entwickeln sich weiter. Wird dieser Wandel nicht aktiv begleitet, entstehen Unsicherheiten oder Ablehnung gegenüber neuen Technologien. Erfolgreiche Unternehmen setzen deshalb auf transparente Kommunikation und frühzeitige Einbindung der Mitarbeitenden. Sie erklären, warum KI eingesetzt wird, welche Aufgaben sie übernimmt und wo menschliche Expertise weiterhin unverzichtbar bleibt. Fehlt dieses gemeinsame Verständnis, werden neue Systeme häufig nur eingeschränkt genutzt. „KI-Projekte scheitern selten an der Technologie“, betont Weber. „Viel häufiger fehlt ein klares Bild davon, welchen konkreten Nutzen KI für Mitarbeitende und Organisation wirklich bringt.“
Auswahl der passenden KI-Lösung
Das Angebot an KI-Lösungen wächst rasant. Für Unternehmen besteht die Herausforderung darin, nicht der technischen Vielfalt zu folgen, sondern eine Lösung zu wählen, die zum eigenen Geschäftsprozess passt. Der Ausgangspunkt sollte immer ein klar definierter Anwendungsfall sein: Welche Aufgabe soll KI konkret unterstützen oder verbessern? Neben den Funktionen spielen auch Fragen der Nachvollziehbarkeit, Integration in bestehende Systeme und regulatorische Anforderungen eine Rolle. Werden diese Aspekte zu spät berücksichtigt, entstehen Lösungen, die technisch leistungsfähig sind, im Alltag aber keinen Mehrwert liefern. „Viele Unternehmen wählen KI nach dem Funktionsumfang aus und stellen später fest, dass sie nicht zum eigenen Prozess passt“, erklärt Weber. „Erfolgreich ist KI dann, wenn sie Abläufe sinnvoll ergänzt und verständliche Ergebnisse liefert.“
Datenqualität als Grundlage für verlässliche Ergebnisse
KI-Modelle sind vollständig von der Qualität ihrer Daten abhängig. In vielen Unternehmen existieren relevante Informationen zwar, sie sind jedoch über verschiedene Systeme verteilt, unterschiedlich gepflegt oder historisch gewachsen. Diese Ausgangslage erschwert nicht nur den Einsatz von KI, sondern kann zu fehlerhaften oder schwer nachvollziehbaren Ergebnissen führen. Datenmanagement ist daher keine einmalige Vorarbeit, sondern eine kontinuierliche Aufgabe. Dazu gehören klare Zuständigkeiten, regelmäßige Prüfungen und eine strukturierte Aufbereitung der Daten. „Der Aufwand für Datenqualität wird häufig unterschätzt“, sagt Weber. „Ohne geprüfte und konsistente Daten lassen sich keine stabilen und verlässlichen KI-Ergebnisse erzielen – unabhängig davon, wie gut das Modell ist.“
Schrittweise Einführung statt großer Umbruch
Statt KI sofort unternehmensweit einzusetzen, empfiehlt sich ein schrittweises Vorgehen. Unternehmen können so mit klar abgegrenzten Anwendungsfällen beginnen, Lösungen im Alltag testen und die Ergebnisse anhand messbarer Kriterien, wie Benutzerfreundlichkeit oder verständlicher Anleitungen, bewerten. So lassen sich Risiken reduzieren und Erkenntnisse gezielt nutzen. Pilotprojekte liefern nicht nur technische Erkenntnisse, sondern zeigen auch, wie gut KI im Arbeitsalltag akzeptiert wird. Auf dieser Basis lässt sich entscheiden, welche Lösungen ausgebaut werden sollten. „Unternehmen, die mit überschaubaren Anwendungsfällen starten, treffen langfristig fundiertere Entscheidungen“, so Weber. „Praxiserfahrungen sind dabei deutlich wertvoller als theoretische Annahmen.“
KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar
Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.
Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.
Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?
Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.
Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.
Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.
Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.
Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.
Schnelles Wachstum kann zu einem Überschuss führen
Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.
Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.
Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.
Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung
Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.
Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“
Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.
Automatisiertes und datenbasiertes Pflanzenwachstum
Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“
Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.
Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren
Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“
DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau
Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.
Gründen mit dem Smartphone: 5 innovative Businessideen für Mobile-First
Innovative Businessideen rund ums Smartphone. Entdecke E-Commerce, Nischen-Apps und mobile Dienste als lukrative Geschäftsmodelle.
Das Smartphone hat unsere Welt in den letzten zwei Jahrzehnten grundlegend verändert. Was einst ein reines Kommunikationsmittel war, ist heute unsere digitale Schaltzentrale, das wichtigste Werkzeug für Konsum, Organisation und – vor allem – für das Unternehmertum.
Mehr als fünf Milliarden Menschen besitzen weltweit ein mobiles Endgerät. Diese beispiellose Marktdurchdringung hat eine „Mobile-First-Ära“ geschaffen, in der fast jeder Prozess und jede Dienstleistung über das kleine Display abgewickelt wird. Für Gründer bietet diese Allgegenwart des Smartphones ein enormes Potenzial.
Die besten Geschäftsideen entstehen dort, wo Technologie auf einen echten Bedarf trifft. Ob es darum geht, ein bestehendes Problem effizienter zu lösen oder eine völlig neue Nische zu erschließen – das Smartphone ist die zentrale Plattform dafür.
Dieser Artikel beleuchtet innovative Businessideen, die direkt aus der mobilen Revolution entstanden sind. Von cleveren Hardware-Ergänzungen über spezialisierte Apps bis hin zu neuen Dienstleistungen: Das Smartphone ist das Sprungbrett für Ihren nächsten erfolgreichen Start-up.
Produkte und Personalisierung im mobilen Umfeld
Obwohl das Smartphone selbst ein hochkomplexes Stück Technologie ist, bietet auch das unmittelbare Umfeld des Geräts zahlreiche lukrative Möglichkeiten für Gründer. Diese sogenannten Hardware-nahen Ideen drehen sich oft um Zubehör oder physische Dienste, die das mobile Nutzererlebnis verbessern.
Eine der erfolgreichsten Nischen der letzten Jahre ist die Personalisierung. Da fast jeder Mensch ein Smartphone besitzt, suchen Nutzer nach Wegen, ihr Gerät einzigartig zu machen. Ein klassisches, aber immer noch wachsendes Geschäftsfeld ist dabei, die Handyhülle selber zu gestalten. E-Commerce-Plattformen, die einen einfachen Online-Konfigurator anbieten, ermöglichen es Kunden, ihre Hüllen mit eigenen Fotos, Designs oder individuellen Texten zu versehen. Dieses Geschäftsmodell basiert auf geringen Stückkosten, einem einfachen Produktionsprozess (meist Druck) und dem starken Wunsch nach Individualität.
Neben der reinen Ästhetik gibt es weitere zukunftsorientierte Produktideen:
- Smarte Ergänzungen: Denken Sie an spezielles, kompaktes Zubehör für mobile Content-Creation (z.B. Mini-LED-Ringe, spezialisierte Mikrofone).
- Nachhaltigkeit und Schutz: Hochwertige, langlebige oder biologisch abbaubare Schutzfolien und Hüllen sprechen eine wachsende, umweltbewusste Zielgruppe an.
- Mobile-Payment-Lösungen: Innovative, physische Halterungen oder Adapter, die das Smartphone noch besser in den Alltag (wie Bezahlvorgänge oder Fahrzeugnutzung) integrieren.
Der Schlüssel zum Erfolg liegt hier darin, ein Massenprodukt – das Smartphone – durch ein Nischenprodukt zu ergänzen, das entweder ein Problem löst oder einen emotionalen Mehrwert wie Einzigartigkeit bietet.
Digitale Dienste und Nischen-Apps
Die wahre Kraft des Smartphones liegt in seiner Software. Hier warten unzählige Möglichkeiten für Gründer, die bereit sind, mit einer App oder einem spezifischen digitalen Dienst eine Marktlücke zu füllen. Anstatt generische Anwendungen zu entwickeln, liegt der Fokus heute auf Nischen-Apps, die sehr spezifische Probleme einer klar definierten Zielgruppe lösen.
Ein vielversprechendes Feld sind Micro-Learning-Anwendungen. Nutzer können kurze, gamifizierte Lerneinheiten für hochspezialisierte Fähigkeiten (etwa Excel-Makros, Weinverkostung oder spezifische Programmiersprachen) direkt in der Hosentasche abrufen. Dieses Modell funktioniert hervorragend über ein Abo-System und nutzt die wenigen Minuten Wartezeit, die jeder im Alltag hat.
Weitere zukunftsweisende Businessideen sind:
- AR-gestützte Shopping-Helfer: Apps, die Augmented Reality nutzen, um dem Kunden zu zeigen, wie ein Möbelstück im eigenen Wohnzimmer aussieht oder wie eine neue Wandfarbe wirkt. Der Vorteil liegt in der direkten Kaufentscheidung.
- Lokale Service-Vermittler: Digitale Plattformen, die Kleinstaufträge im lokalen Umfeld vermitteln (z.B. Nachbarschaftshilfe, Hunde-Sitting oder kurzfristige Handwerksleistungen). Der mobile Aspekt ist hier die einfache, standortbasierte Koordination.
- Gesundheit und Wellness: Spezialisierte Anwendungen, die mithilfe der Smartphone-Sensoren Daten sammeln, analysieren und personalisierte Empfehlungen für Schlaf, Stressreduktion oder Ernährung liefern.
Der Schlüssel zum Erfolg in diesem Segment ist der Fokus auf ein sauberes, intuitives Design (UX/UI) und ein skalierbares Geschäftsmodell, das oft auf Abonnements oder In-App-Käufen basiert. Die Hürde ist hier oft geringer, da keine physischen Lagerbestände nötig sind.
Mobile Content-Kreation und Monetarisierung
Das moderne Smartphone ist nicht nur ein Konsumgerät, sondern auch ein hochentwickeltes Produktionswerkzeug. Die verbesserten Kamera- und Schnittfunktionen haben das Gerät zum primären Werkzeug für professionelle Content-Kreation gemacht. Dies eröffnet neue Geschäftsfelder für Gründer, die Dienstleistungen oder Nischeninhalte anbieten.
Ein zukunftsträchtiges Feld ist die spezialisierte mobile Videoproduktion. Anstatt teure Kamerateams zu buchen, können Unternehmen mobile Content-Creator beauftragen. Diese liefern hochwertiges Material schnell und flexibel, indem sie effiziente Workflows direkt über das Smartphone nutzen, um dynamische Videos für soziale Medien oder Marketingkampagnen zu erstellen.
Weitere lukrative Dienstleistungsmodelle, die auf dem Smartphone aufbauen:
- Mobile Fotografie für E-Commerce: Spezialisten erstellen und bearbeiten Produktfotos direkt mit dem Smartphone. Dies bietet kleinen Online-Shops einen schnellen und kostengünstigen Service.
- Nischen-Content: Mit hochwertigen mobilen Mikrofonen können Gründer spezialisierte Audioinhalte (wie Branchen-Insider-Podcasts) direkt über das Gerät erstellen und monetarisieren.
Das Smartphone senkt die Eintrittsbarriere für Gründer in der Medien- und Kreativbranche erheblich. Erfolg hat hier, wer sich auf eine Nische spezialisiert und die Flexibilität des mobilen Workflows als Wettbewerbsvorteil nutzt.
Schlussworte
Das Smartphone hat sich unwiderruflich als zentrales Werkzeug der digitalen Wirtschaft etabliert. Es ist nicht nur ein Kanal für den Konsum, sondern vor allem eine Plattform für innovative Geschäftsmodelle. Von der individualisierten Hardware wie der Möglichkeit zur Handyhülle selber gestalten bis hin zu hochspezialisierten Nischen-Apps – die Wachstumschancen sind enorm.
Für angehende Gründer gilt: Die besten Ideen nutzen die Stärken des mobilen Geräts – nämlich die ständige Verfügbarkeit, die eingebauten Sensoren und die einfache Bedienung.
Der Erfolg liegt nicht in der Entwicklung der nächsten "Super-App", sondern darin, ein spezifisches Problem einer klar definierten Zielgruppe effizient und mobil zu lösen. Wer die Mobile-First-Mentalität verinnerlicht, hat die Geschäftszentrale der Zukunft bereits in der Hosentasche.
Happy Homeoffice Club gestartet
Gründerin Caterina Hirt startet ein digitales Netzwerk als kollaborative Kommunikationsplattform für selbständige Mütter im Homeoffice.
Mit dem Start des Happy Homeoffice Clubs entsteht ein neues digitales Angebot für selbständige Mütter – mit Liveformaten, Co-Working, einer innovativen Softwareplattform und vielen nützlichen Business-Hacks. Die Gründerin Caterina Hirt bringt damit ein strukturiertes, unterstützendes Netzwerk an den Start, das den oft isolierten Homeoffice-Alltag in einen Ort der Verbindung, Motivation und echten Weiterentwicklung verwandelt. „Ich habe selbst erlebt, wie herausfordernd es ist, Beruf, Familie und Selbstverwirklichung unter einen Hut zu bringen – vor allem im Homeoffice. Mit dem Happy Homeoffice Club möchte ich Frauen zeigen, dass sie nicht alleine sind“, so die Gründerin. Caterina Hirt ist Unternehmerin, Autorin, systemische Coachin und Mutter von zwei Kindern. Mit ihrem Agenturbackground und über zehn Jahren Erfahrung im Homeoffice weiß die Marketingspezialistin aus erster Hand, welche Chancen – aber auch welche Herausforderungen – dieser Arbeitsalltag birgt.
Kern der Zusammenarbeit ist eine kollaborative Kommunikationsplattform, über die die Mütter dauerhaft in einem echten Netzwerk verbunden sind. Dazu setzt das Angebot auf Livecalls, Community-Austausch, Expertenvorträge und snackable Businesstipps, die den Workflow im Homeoffice effizienter machen. Das Angebot richtet sich explizit an selbständige Frauen oder Mütter im Homeoffice. „Bei uns fühlt sich keine Teilnehmerin mehr allein. Hier treffen sich Frauen, die genau wissen, wie es ist, mit Laptop, Kaffee, Kind und manchmal ein bisschen Chaos zu jonglieren. Sie arbeiten, lachen, tauschen sich aus und motivieren sich gegenseitig. So modern, vernetzt und unterstützend, wie man es sich als Selbstständige immer gewünscht hat “, sagt Caterina Hirt.
Die zugrundeliegende Softwarelösung bietet eine hochmoderne Nutzeroberfläche, Chats, Calls in einer geschützten Umgebung sowie Daten- und Wissensaustausch an. So gibt es zum Beispiel den Monday Motivation Call mit allen Teilnehmerinnen oder eine interaktive Kaffeeküche, in der man sich einfach mal über alle Themen abseits des Business interaktiv austauschen kann. Die Plattform wird jeder Teilnehmerin zur Verfügung gestellt, die Nutzung ist in der monatlichen Mitgliedsgebühr von 49 Euro (Einführungspreis) enthalten. Interessentinnen können die Community inklusive aller Angebote zwei Wochen kostenlos testen.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Report: Quantencomputing
Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.
Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.
Herausforderungen
Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.
Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.
Trends
In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.
Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.
Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintrittsbarrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.
Die Rolle von Start-ups
Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.
Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.
Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.
Deutsche QC-Start-ups mischen ganz vorne mit
Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.
Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.

