Cloud Gaming ist die Zukunft: Wie die Cloud-Technologie die Spielewelt verändern könnte


44 likes

Cloud Gaming-Dienste sind im Trend und stellen eine Art Gamechanger für das digitale Spielen dar. Wir gehen dem Hype rund ums Gaming on Demand auf den Grund.

Dass die Technologien rund um das Online Gaming schnelllebig sind, ist bekannt. Aus diesem Grund ist es wichtig, dass man sich hier immer am neuesten Stand bewegt und versucht, mit der Zeit zu gehen. Das betrifft aber in erster Linie nicht nur die Spieler, sondern auch jene Unternehmer, die Spiele und Konsolen herstellen.

Wie man sich Cloud Gaming-Dienste vorstellen kann? Wie ein Buffet in einem All-Inclusive-Hotel. Es gibt verschiedene Speisen (in unserem Fall: Spiele), die immer und jederzeit zur Verfügung stehen. Was das Cloud Gaming zudem noch so besonders macht? Es gibt keine langen Downloadzeiten und keine teure Hardware. Am Ende dreht sich alles nur um das pure Gaming-Vergnügen. Aber wird sich das Cloud Gaming durchsetzen können oder handelt es sich um einen Hype, der bereits wieder abnimmt?

Cloud Gaming: Das muss man wissen

Cloud Gaming, das auch als Gaming on Demand bezeichnet werden kann, ist eine neue Form des Online Games. Hier besteht die Möglichkeit des Echtzeit-Streamings von Videospielen auf den Computer, die Konsole oder auch auf das mobile Endgerät. Was man dafür benötigt? Ein Konto bei einem Cloud Gaming-Anbieter und eine stabile Internetverbindung. Am Ende handelt es sich hier um ein Netflix oder Disney+ für Videospiele. Es werden keine Games im Laden gekauft oder heruntergeladen, sondern einfach über den Server des Anbieters gespielt.

Das Ganze kann mit einem Besuch im Online Casino verglichen werden – auch hier kann man direkt am Server das Glück in den besten Online Casinos Deutschlands testen.

Die zwei bekanntesten Anbieter

Aktuell gibt es in der Welt des Cloud Gamings zwei Namen, die den Markt dominieren: Nvidia GeForce Now und Microsoft xCloud. Beide Dienste haben nicht nur ihre ganz besonderen Vor- und Nachteile, sondern alle zwei haben auch eine Gemeinsamkeit: Jeder der beiden Dienste bringt die besten und neuesten Games direkt auf das Gerät des Spielers, ganz egal, ob es sich um ein Smartphone handelt, um einen Smart TV oder um einen High End-PC.

Nvidia GeForce Now

Bei Nvidia GeForce Now gibt es keine Bibliothek, in der Spiele zu finden sind, sondern kann der Spieler die Games von Plattformen wie Epic Games oder Steam streamen. Eine durchaus hervorragende Option. Das deshalb, weil es hier eine umfangreiche Spielesammlung gibt, auf die jederzeit zugegriffen werden kann. Da kann keine Langeweile aufkommen.

Microsoft xCloud

Bei Microsoft xCloud handelt es sich um einen Teil des Xbox Game Pass Ultimate Abos. Wer sich für das Ultimate Abo entscheidet, kann auf über 100 Xbox Games zugreifen. All jene, die schon in das Ökosystem von Xbox investiert haben, werden begeistert sein, weil sie jetzt auch problemlos unterwegs die neuesten Xbox Games zocken können.

Welche Herausforderungen warten auf das Cloud Gaming?

Auf den ersten Blick scheinen die Vorteile unendlich zu sein. Doch man sollte sich auch mit den Schattenseiten des Cloud Gamings befassen – und diese mag es tatsächlich geben. So geht es etwa um Internetverbindungen, um Latenzprobleme und auch darum, dass der Spieler abhängig von Servern des Dienstanbieters ist.

Wer sich für das Cloud Gaming interessiert, braucht eine stabile Internetverbindung, damit ein flüssiges Spiel möglich wird. Nur dann, wenn der Spieler eine gute Internetverbindung hat, kann er sich auf ein hervorragendes Spielerlebnis freuen. Eine gute Internetverbindung reduziert auch etwaige Latenzprobleme. Denn Latenzprobleme machen das Spiel schwieriger, wenn Eingaben verzögert übertragen werden – bei reaktionsbasierten und schnellen Spielen ist das ein nicht zu unterschätzender Nachteil.

So kann die Cloud Gaming-Zukunft aussehen

Es mag durchaus ein paar Herausforderungen geben, die auf das Cloud Gaming warten, doch die werden wohl die Zukunft nicht drastisch beeinflussen können. Die Technologie entwickelt sich weiter; auch wird die Internetinfrastruktur in den nächsten Jahren deutlich besser ausgebaut sein als noch vor ein oder zwei Jahren. Zudem werden auch neue Geschäftsmodelle dafür sorgen, dass das Cloud Gaming auch eine breite Bevölkerungsgruppe ansprechen kann.

Zweifellos sind sogenannte Cloud Gaming-Dienste eine Art Gamechanger für das digitale Zocken. Denn es gibt eine bequeme und flexible, aber auch sehr kostengünstige Alternative zu den klassischen Gaming-Plattformen.

Diese Artikel könnten Sie auch interessieren:

Schneller aus dem Labor

Wie Gründer*innen aus dem universitären Umfeld der Transfer von Wissen aus der akademischen Welt in die Privatwirtschaft noch besser gelingt, erörtern wir im Interview mit Dr. Philipp Baaske, Mitgründer von NanoTemper Technologies, Business Angel und seit Oktober 2025 Vizepräsident für Entrepreneurship an der Ludwig-Maximilians-Universität München (LMU).

NanoTemper, einer der Weltmarktführer für biophysikalische Messinstrumente, wurde 2008 als Spin-off der LMU gegründet. Was hatte dich damals dazu bewogen, vom Forscher zum Gründer zu werden?

Für mich war es sehr persönlich. Meine Mutter wurde mit Brustkrebs diagnostiziert, und das Medikament, das ihr das Leben gerettet hat, wurde dank Biotechnologie entwickelt. Mir wurde klar, dass Wissenschaft nur dann wirklich mächtig ist, wenn sie den Patienten erreicht. Dieser Gedanke hat mich nie mehr losgelassen.

Im Labor habe ich die Neugier, die Präzision, das Entdecken geliebt. Aber ich sah auch die Lücke: brillante Ideen blieben oft in Publikationen stecken, weit weg vom Alltag der Menschen. Ich wollte nicht bei der Entdeckung stehen bleiben. Ich wollte helfen, Entdeckungen in Produkte zu verwandeln, die jeder nutzen kann.

Diese Überzeugung wurde durch meine Herkunft noch verstärkt. Ich bin in einem kleinen bayerischen Dorf aufgewachsen, in einer Familie von Handwerkern. Meine Eltern haben mir beigebracht, dass Arbeit praktisch sein muss, dass sie den Menschen dienen sollte. Die Wissenschaft faszinierte mich, aber ich spürte eine Unruhe: Wie viel mächtiger kann unser Wissen werden, wenn wir es vom Labor auf den Alltag der Menschen übertragen?

Also habe ich zusammen mit meinem Mitgründer Stefan Duhr den Sprung gewagt. Zwei junge Wissenschaftler in einem Labor im Keller, die die ersten Prototypen von Hand bauten. Wir hatten kein Risikokapital, keine Roadmap, nur Entschlossenheit und den Glauben, dass das, was wir erschaffen, etwas verändern könnte. Uns trieb die gleiche Hartnäckigkeit an, die ich in der Werkstatt meiner Eltern gesehen hatte: Wenn etwas nicht funktionierte, reparierte man es, bis es funktionierte.

Wenn ich jetzt zurückblicke, war es nicht der Businessplan oder die Marktanalyse, die den Ausschlag gaben. Es war der Glaube, dass Forschung nicht im Labor enden, sondern die Brücke zur Gesellschaft schlagen sollte. Und für mich wurde Unternehmertum der Weg, diese Brücke zu bauen.

Was waren die größten Hürden auf diesem Weg?

Die größten Hürden waren nicht technischer, sondern menschlicher Natur. Als Wissenschaftler waren wir darauf trainiert, uns tief in die Experimente zu vertiefen, aber wir wussten nicht, wie man mit Kunden spricht, Verträge aushandelt oder Teams leitet. Das musste ich alles von Grund auf neu lernen.

In den Anfangsjahren haben wir Prototypen verkauft, bevor das Produkt überhaupt fertig war. Das hat uns gezwungen, schnell zu handeln, aber es hat uns auch Demut gelehrt: Kunden erwarten Zuverlässigkeit und nicht nur clevere Ideen. Später, als das Wachstum unsere Finanzen überstieg, mussten wir schwierige Entscheidungen treffen. Einmal musste ich Kollegen entlassen, um das Unternehmen zu retten. Das war einer der schwierigsten Momente meines Lebens, aber es hat mir gezeigt, dass Führung nicht darin besteht, Schmerzen zu vermeiden, sondern Verantwortung zu übernehmen.

Natürlich gab es unzählige kleinere Hürden: Menschen davon zu überzeugen, einem jungen Unternehmen zu vertrauen, die Gehaltsabrechnung zu erledigen, Instrumente von Hand zu reparieren. Aber diese Hindernisse wurden zu unserer Lehrzeit.

Wie können wir den Wissens- und Technologietransfer verbessern und gleichzeitig einen echten gesellschaftlichen Mehrwert schaffen?

Über Fördermittel wird viel gesprochen, was gut ist, denn wir müssen sie verbessern. Aber ich glaube, wir sollten über die Fördermittel hinausdenken. Der Fokus muss auf dem Impact liegen, nicht nur auf der Förderung. In den Life Sciences bedeutet das vor allem eines: Innovationen schneller zu den Patienten und den behandelnden Ärzten zu bringen.

Wir haben exzellente Forschung und Wissenschaftler von Weltrang. Die Frage ist, wie schnell ihre Entdeckungen den Weg vom Labor in die medizinische Praxis finden. Entscheidend sind stärkere Partnerschaften zwischen Universitäten, Krankenhäusern und praktizierenden Ärzten. Wenn Forscher, Kliniker und Ärzte früh zusammenarbeiten, wird der Weg von der Entdeckung zum Patienten kürzer und effektiver.

Ein weiterer wichtiger Aspekt ist, Wissenschaftler dazu zu ermutigen, den Schritt in die Selbständigkeit zu wagen. Viele zögern, weil sie glauben, dass ihnen die unternehmerischen Fähigkeiten fehlen. Was sie jedoch wirklich brauchen, ist eine unterstützende Umgebung: Mentoren, Vorbilder und die Möglichkeit, ihre Ideen auszuprobieren.

Schließlich geht es beim Wissenstransfer nicht darum, Patente von einem Büro in ein anderes zu verlagern. Es geht darum, wissenschaftliche Erkenntnisse in etwas umzusetzen, das das Leben der Menschen berührt und Ärzten hilft, ihre Patienten besser zu behandeln.

Die Skalierung von Forschungsergebnissen in der Privatwirtschaft funktioniert in Deutschland und Europa anders als in den USA. Was können wir aus den USA lernen und was sollten wir anders machen?

Ich bewundere den Mut des US-Ökosystems, in dem Gründer oft von großen Zielen träumen, schnell agieren und frühzeitig Investoren finden. Diese Energie schafft Dynamik und hat viele bahnbrechende Unternehmen hervorgebracht.

Europa hat seine eigenen Stärken. Wir sind bekannt für Qualität, Präzision und Vertrauen. Kunden schätzen, dass wir Dinge bauen, die lange halten. Unsere Herausforderung besteht darin, diese Stärken mit mehr Geschwindigkeit und Mut zu kombinieren. Wir haben die Chance, ein anderes Modell als das US-amerikanische zu entwickeln: verantwortungsvolles Wachstum, profitable Unternehmen und nachhaltige Wirkung, die über Jahrzehnte anhält, und nicht nur Finanzierungszyklen.

Kurz gesagt: Wir können uns von den USA die Zuversicht abschauen, aber wir sollten uns unserer europäischen DNA treu bleiben: geduldig, diszipliniert und langfristig orientiert.

Seit Oktober 2025 bist du Vizepräsident für Entrepreneurship an LMU. Wie willst du dort die Bereiche Entrepreneurship und Technologietransfer voranbringen?

Die LMU ist eine der weltweit führenden Universitäten mit 54.000 Studierenden und 18 Fakultäten. Sie vereint Exzellenz in allen Bereichen und Forschungsgebieten wie Medizin, Physik, KI, Recht, Wirtschaftswissenschaften und Geisteswissenschaften. Meine Aufgabe ist es, dafür zu sorgen, dass diese Vielfalt in die Gesellschaft getragen wird. In Form von Unternehmen, Wissen und Menschen, die ihre Fähigkeiten einsetzen. Und das muss schnell geschehen.

Eine natürliche Stärke der LMU liegt in DeepTech, in den Life Sciences, insbesondere in der Biotechnologie, und in aufkommenden Bereichen wie künstliche Intelligenz und Quanten-Technologien. In diesen Bereichen gibt es bereits bahnbrechende Forschung, und der Einfluss auf Patienten, Industrie und Gesellschaft kann enorm sein. Mein Fokus liegt darauf, diese Bereiche zu stärken und die Wege von der Forschung zur Anwendung zu beschleunigen und zu vereinfachen.

Das bedeutet, dass wir Studierenden und Forschern Zugang zu Büros und Laboren, Inkubationsprogrammen, Finanzierungsmöglichkeiten und starke Partnerschaften mit relevanten Akteuren in München und darüber hinaus bieten, dass wir ein Umfeld schaffen, in dem sie frühzeitig und in der Nähe der Kunden mutige Ideen testen können. In dem sie aus Fehlern und Erfolgen lernen können, von erfahrenen Gründern Ratschläge erhalten und Unternehmertum als attraktive Option sehen.

Vor allem aber möchte ich, dass die Zahl der Start-ups, die von der LMU ausgründen, deutlich ansteigt. Sind Lehre, Forschung und Unternehmertum auf Weltniveau und stärken sich gegenseitig, wird die LMU noch mehr zu einem Ort, an dem Ideen wirklich Wirkung entfalten. Nicht nur in München, sondern weit darüber hinaus.

Vor Kurzem ist dein Buch „The Honorable Entrepreneur“ erschienen. Welche Tipps daraus willst du Gründer*innen mit auf den Weg geben?

Diese sieben Prinzipien haben mich in den letzten 20 Jahren von einer kleinen Labor-WG in einem Keller zu einem globalen Unternehmen geführt:

  • Vertrauen aufbauen oder gar nichts aufbauen: Vertrauen ist die Grundlage für die Zusammenarbeit mit Mitgründern, Mitarbeitern, Investoren und Kunden. Ohne Vertrauen kann kein Unternehmen bestehen.
  • Menschen an erste Stelle setzen – immer: Erfolg wird von Teams und nicht von Einzelkämpfern geschaffen. Wenn du dich um deine Mitarbeiter kümmerst, werden sie die Mission mit dir durchziehen.
  • Innovieren für den Impact: Baue keine Technologie nur für dich selbst. Frage dich: Verbessert das das Leben – für Patienten, Kunden, die Gesellschaft?
  • Schnell und klug skalieren: Wachstum ist wichtig, aber Wachstum ohne Disziplin kann ein Unternehmen zerstören. Fokussiertes, profitables Skalieren schafft Resilienz.
  • Ein profitables, nachhaltiges Unternehmen aufbauen: Profitabilität ist kein Nachgedanke, sondern das, was dir Freiheit und Unabhängigkeit gibt.
  • Die Vision umsetzen: Viele Gründer verlieren sich in glänzenden Ablenkungen. Bleib fokussiert. Setze um, was am wichtigsten ist.
  • Gib etwas zurück: Teile deine Erfahrung, unterstütze andere und trage zum Ökosystem bei. Wahre Erfolge sind diejenigen, die überleben, wenn man selbst nicht mehr da ist.

Meine Botschaft ist einfach: Man kann im Geschäftsleben erfolgreich sein, ohne dabei seine Seele zu verkaufen. Rentabilität und Prinzipien sind keine Gegensätze, sondern gehören zusammen.

Philipp, Danke für deine Insights

Hinweis: Dieses Interview wurde ursprünglich auf Englisch geführt und ins Deutsche übersetzt.

KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar

Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.

Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.

Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?

Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.

Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.

Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.

Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.

Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.

Schnelles Wachstum kann zu einem Überschuss führen

Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.

Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.

Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.

Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung

Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.

Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“

Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.

Automatisiertes und datenbasiertes Pflanzenwachstum

Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“

Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.

Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren

Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“

DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau

Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.

NICAMA Naturkosmetik: Von der Studienidee zum nachhaltigen Erfolgsunternehmen

NICAMA Naturkosmetik feiert sein fünfjähriges Bestehen: Was mit kleinen Experimenten während des Studiums begann, ist heute ein etabliertes Naturkosmetikunternehmen mit über 600 Handelspartnern im DACH-Raum.

Was 2019 als mutige Idee von vier Studierenden begann, wurde rasch zu einem inspirierenden Beispiel für gelebte Nachhaltigkeit. In einer Zeit, in der Umweltschutz noch kein selbstverständlicher Trend war, experimentierten die Gründerinnen und Gründer mit festen Shampoos, um eine plastikfreie Alternative zu herkömmlicher Kosmetik zu schaffen. Das erste Produkt entstand mit viel Leidenschaft, Neugier und Improvisation. Damit war der Grundstein für den späteren Unternehmenserfolg gelegt.

Ein erfolgreiches Crowdfunding finanzierte 2019 die erste Produktcharge und machte den Traum vom eigenen Webshop möglich. Es folgten die ersten Partnerschaften mit Bioläden, Outdoorhändlern, Friseuren und Geschenkeläden, die an die Vision glaubten. Heute zählt NICAMA stolz über 600 Vertriebspartner und wächst weiter.

Ein entscheidender Meilenstein war die Entwicklung des 1plus1 Meeresschutz-Prinzips: Für jedes verkaufte Produkt werden 100 Gramm Plastik in Küstenregionen gesammelt. Dieses Prinzip ist transparent, messbar und von jedem/jeder Kund*in nachvollziehbar. Bis heute konnten so über 33.290 Kilogramm Plastik aus der Umwelt entfernt werden. Das entspricht mehr als 3,2 Millionen Plastikflaschen. Darüber hinaus hat das Team mehrere Elbreinigungen organisiert, unter anderem gemeinsam mit der Naturschutzjugend NAJU und Charlotte Meentzen.

Mit dem Schritt in die Upcycling Beauty wurde NICAMA zum Pionier in Deutschland. Dabei werden wertvolle Nebenprodukte aus der Lebensmittelproduktion wie Ingwertrester und Kaffeekirsche zu hochwertigen Inhaltsstoffen verarbeitet. Heute umfasst das Sortiment über 50 plastikfreie Produkte, darunter Seifen, Shampoos, Deocremes, Pflegeöle und Körperpeelings – alle minimalistisch verpackt und mit reduzierten, sorgfältig ausgewählten Rezepturen.

Die Reise war jedoch nicht ohne Herausforderungen: Die Corona Pandemie und die Inflationsfolgen des Ukraine-Krieges setzten auch NICAMA stark zu. Das einst 15-köpfige Team musste sich zwischenzeitlich deutlich verkleinern. Trotz dieser Rückschläge bewies das Unternehmen Durchhaltevermögen. Heute steht es so solide da wie nie zuvor. Seit zwei Jahren verzeichnet NICAMA wieder überdurchschnittliches Wachstum und das deutlich über dem allgemeinen Naturkosmetikmarkt in Deutschland.

Für sein Engagement und seine Innovationskraft wurde das Unternehmen mehrfach ausgezeichnet: 2021 gewann NICAMA den Sächsischen Gründerpreis und erhielt bereits viermal den eku Zukunftspreis des Sächsischen Staatsministeriums für Umwelt und Landwirtschaft.

Happy Homeoffice Club gestartet

Gründerin Caterina Hirt startet ein digitales Netzwerk als kollaborative Kommunikationsplattform für selbständige Mütter im Homeoffice.

Mit dem Start des Happy Homeoffice Clubs entsteht ein neues digitales Angebot für selbständige Mütter – mit Liveformaten, Co-Working, einer innovativen Softwareplattform und vielen nützlichen Business-Hacks. Die Gründerin Caterina Hirt bringt damit ein strukturiertes, unterstützendes Netzwerk an den Start, das den oft isolierten Homeoffice-Alltag in einen Ort der Verbindung, Motivation und echten Weiterentwicklung verwandelt. „Ich habe selbst erlebt, wie herausfordernd es ist, Beruf, Familie und Selbstverwirklichung unter einen Hut zu bringen – vor allem im Homeoffice. Mit dem Happy Homeoffice Club möchte ich Frauen zeigen, dass sie nicht alleine sind“, so die Gründerin. Caterina Hirt ist Unternehmerin, Autorin, systemische Coachin und Mutter von zwei Kindern. Mit ihrem Agenturbackground und über zehn Jahren Erfahrung im Homeoffice weiß die Marketingspezialistin aus erster Hand, welche Chancen – aber auch welche Herausforderungen – dieser Arbeitsalltag birgt.

Kern der Zusammenarbeit ist eine kollaborative Kommunikationsplattform, über die die Mütter dauerhaft in einem echten Netzwerk verbunden sind. Dazu setzt das Angebot auf Livecalls, Community-Austausch, Expertenvorträge und snackable Businesstipps, die den Workflow im Homeoffice effizienter machen. Das Angebot richtet sich explizit an selbständige Frauen oder Mütter im Homeoffice. „Bei uns fühlt sich keine Teilnehmerin mehr allein. Hier treffen sich Frauen, die genau wissen, wie es ist, mit Laptop, Kaffee, Kind und manchmal ein bisschen Chaos zu jonglieren. Sie arbeiten, lachen, tauschen sich aus und motivieren sich gegenseitig. So modern, vernetzt und unterstützend, wie man es sich als Selbstständige immer gewünscht hat “, sagt Caterina Hirt.

Die zugrundeliegende Softwarelösung bietet eine hochmoderne Nutzeroberfläche, Chats, Calls in einer geschützten Umgebung sowie Daten- und Wissensaustausch an. So gibt es zum Beispiel den Monday Motivation Call mit allen Teilnehmerinnen oder eine interaktive Kaffeeküche, in der man sich einfach mal über alle Themen abseits des Business interaktiv austauschen kann. Die Plattform wird jeder Teilnehmerin zur Verfügung gestellt, die Nutzung ist in der monatlichen Mitgliedsgebühr von 49 Euro (Einführungspreis) enthalten. Interessentinnen können die Community inklusive aller Angebote zwei Wochen kostenlos testen.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Report: Quantencomputing

Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.

Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.

Herausforderungen

Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.

Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.

Trends

In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.

Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.

Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintritts­barrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.

Die Rolle von Start-ups

Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.

Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.

Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.

Deutsche QC-Start-ups mischen ganz vorne mit

Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.

Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.

Hamburger FoodTech-Start-up goodBytz bringt Roboterküchen in den Mittelstand

Das Tech-Start-up goodBytz, das führend in der Entwicklung autonomer Roboterinfrastruktur für bessere Lebensmittelversorgung ist, geht eine Partnerschaft mit avitea Industrieservice, einem auf Logistik-, Facility- und Produktionsservices spezialisierten Industrie-Dienstleister ein, um automatisierte Verpflegungslösungen im industriellen Mittelstand voranzutreiben.

Gegründet wurde goodBytz 2021 von Dr. Hendrik Susemihl, Kevin Deutmarg und Philipp von Stürmer. Die Unternehmer lernten sich zuvor beim Robotik-Unternehmen NEURA kennen, wo sie mehrere Jahre gemeinsam an innovativen Technologien gearbeitet haben. Seit der Gründung hat sich goodBytz nach eigenen Angaben zum weltweit am schnellsten wachsenden Unternehmen für Lebensmittelautomatisierung entwickelt.

Die modularen Automatisierungssysteme betreiben aktuell zahlreiche Verpflegungslösungen im B2B-Catering und in der Systemgastronomie. Als Herzstück dient eine intelligente Middleware Software, eine hardwareunabhängige, flexible Plattform, die die Effizienz in traditionellen Küchenumgebungen maximiert. GoodBytz verfolgt die Mission, frische Lebensmittel jederzeit und für jede(n) zugänglich zu machen und treibt damit den technologischen Wandel in der Gastronomiebranche voran.

Neue Chancen für den deutschen Mittelstand

Mit der strategischen Partnerschaft mit avitea Industrieservice, einem auf Logistik-, Facility- und Produktionsservices spezialisierten Industrie-Dienstleister, erschließt goodBytz ein neues Marktsegment: Viele Produktionsbetriebe arbeiten im Drei-Schicht-System und stoßen bei der Versorgung von Mitarbeitenden an ihre Grenzen. Durch die Kombination aus aviteas Marktzugang und dem technologischen Know-how von goodBytz soll diese Lücke künftig geschlossen werden. Gerade für den deutschen Mittelstand ergeben sich daraus enorme Chancen – das Potenzial liegt bei über 10.000 möglichen Installationen.

Als Operations-Partner betreibt avitea künftig Roboterküchen direkt bei seinen Kund*innen. So sind Unternehmen in der Lage, ihren Mitarbeitenden zu jeder Tages- und Nachtzeit eine gesunde, planbare und abwechslungsreiche, regelmäßig wechselnde sowie stets frische Küche anzubieten – ganz ohne eigenes Küchenpersonal und mit komfortabler Vorbestellbarkeit.

„Das Konzept von goodBytz hat uns sofort überzeugt“, ergänzt Markus Humpert, Geschäftsführer von avitea Industrieservice. „Gerade dort, wo sich der Betrieb einer Kantine wirtschaftlich nicht rechnet oder Personal fehlt, können wir gemeinsam eine echte Lücke schließen. Die Qualität der Gerichte ist hervorragend, der Ansatz innovativ. Als Dienstleister und Flexibilisierungspartner für industrielle Kunden können wir gemeinsam mit goodBytz für genau diese Betriebe eine innovative Lösung für tägliche Herausforderungen bieten.“

Robotik schlägt Brücke zwischen Industrie und Alltag

Nils Tersteegen, Marketingleiter der FANUC Deutschland GmbH, sagt dazu: „Für FANUC ist es schön zu sehen, wie unsere bewährte Industrierobotik immer näher an den Alltag der Menschen rückt. GoodBytz schlägt eine Brücke zwischen Industrie und Alltag und zeigt, wie Robotik echten Mehrwert für Mitarbeitende schaffen kann. Viele avitea-Kund*innen setzen bereits heute auf FANUC-Roboter in der Produktion. Wenn künftig einer dieser Roboter für sie das Mittagessen zubereitet, schließt sich auf besonders schöne Weise ein Kreis. Durch Automation kann dem Fachkräftemangel in der Industrie schon heute wirksam begegnet werden. Wenn künftig auch in der Küche Roboter unterstützen, zeigt das, welches Potenzial in dieser Technologie noch steckt.“

Als nächster Schritt ist eine erste Umsetzung im Hotelumfeld geplant, um das Betriebskonzept zu verfeinern und Kund*innen den Mehrwert der Lösung zu zeigen. Anschließend wird der Marktausbau mit weiteren Industrieunternehmen fortgesetzt.

Durch die Kooperation mit avitea will goodBytz Verpflegung zum festen Bestandteil moderner Industrieprozesse machen. Die automatisierten Roboterküchen zeigen, wie sich Effizienz, Gesundheit und Arbeitgeberattraktivität in der industriellen Arbeitswelt verbinden lassen.

„Mit avitea Industrieservice haben wir einen Partner gewonnen, der den industriellen Mittelstand seit Jahrzehnten begleitet und direkten Zugang zu Produktionsbetrieben mit großem Versorgungsbedarf hat“, sagt Dr. Hendrik Susemihl, CEO und Co-Founder von goodBytz. „Gemeinsam verbinden wir unsere Technologie mit dem Marktzugang und der operativen Erfahrung von avitea. So entsteht eine Partnerschaft, die den breiten Einsatz automatisierter Verpflegungslösungen im industriellen Mittelstand ermöglicht und Unternehmen im Wettbewerb um Fachkräfte stärkt.“

EU KI-Gesetz wird scharf gestellt

Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.

Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.

Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:

  • Strafmaßnahmen bei Nichteinhaltung
  • Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
  • Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene

Strafen bis zu 35 Millionen Euro

Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.

Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen

GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.

GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.

Aufsicht und Governance

Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.

Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.

Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.

Was bedeutet das für Personalabteilungen und Arbeitnehmende?

Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.

  • Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
  • Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
  • Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
  • Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.

Fazit

Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.

Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.

EU AI Act: Status quo

Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.

Überblick: Der AI Act

Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten Hochrisiko­Systeme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.

Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.

Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.

Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.

Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.

Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produkt­regulierung und Marktüberwachung.

Was fehlt? Guidance und Governance

Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.

Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.

Und wo steht Deutschland?

Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.

Reallabore

Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.

Reaktionen

Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.

Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschied­liche Informationen und Compliance-Nachweise verfügbar sind.

Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.

Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.

Fazit

Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.

Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Her­ausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.

Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München

Humanoide Roboter: Vision und Realität

Der Weltroboterverband IFR veröffentlicht sein Positionspapier zu Trends, Chancen und möglichen Grenzen rund um das Thema humanoide Roboter.

Menschenähnliche Roboter gelten als die nächste große Innovation in der Robotik: Der weltweit größte Markt für Industrieroboter, China, hat bereits konkrete Pläne für die Massenproduktion von Humanoiden festgelegt. Gleichzeitig kündigten Technologieunternehmen in den USA und Europa große Investitionsvorhaben in diesem Bereich an. Die Vision ist, Allzweckroboter zu entwickeln, die auf menschlicher Mechanik basieren. Einblicke in Trends, Chancen und mögliche Grenzen humanoider Roboter bietet das neue Positionspapier der International Federation of Robotics.

„Futuristisch anmutende humanoide Roboter, die in unserem Zuhause, in Unternehmen und in der Öffentlichkeit arbeiten, faszinieren die Menschen“, sagt Takayuki Ito, Präsident der International Federation of Robotics. „Da die Welt in der wir leben auf den menschlichen Körper zugeschnitten ist, liegt die Idee eines schnellen, universellen Helfers in der Produktion und bei Dienstleistungen auf der Hand. Ob und wann es aber zu einer massenhaften Nutzung von Humanoiden kommen wird, bleibt ungewiss. Nicht zu erwarten ist jedenfalls, dass Humanoide in Zukunft die derzeit auf dem Markt befindlichen Robotertypen ersetzen. Stattdessen werden sie bestehende Technologien ergänzen und erweitern.“

Einsatz von Humanoiden in den Regionen

In den Vereinigten Staaten arbeiten Tech-Unternehmen wie NVIDIA, Amazon und Tesla intensiv an KI- und Robotertechnologien. Neben der Finanzierung durch das Militär wird diese Entwicklung auch durch zahlreiche private Investitionen unterstützt. Das führt zu einer bedeutenden Start-up-Szene, die sich auf humanoide Roboter spezialisiert. Besonders groß ist das Interesse an Humanoiden in Branchen wie der Logistik und in der Fertigung. Dabei werden humanoide Roboter weniger als soziale Begleiter gesehen, sondern eher als Werkzeuge, die dabei helfen, Produktivität und Effizienz zu steigern. So liegt der Schwerpunkt verstärkt auf praktischen Anwendungen und weniger auf der Integration von Robotern in das tägliche soziale Leben.

In China nehmen die Humanoiden eine zentrale Stellung in der nationalen Robotik-Strategie ein. Die Regierung möchte in diesem Technologiebereich Kompetenz und globale Wettbewerbsfähigkeit unter Beweis stellen. Der Einsatzschwerpunkt liegt dabei im Dienstleistungssektor, beispielsweise für die Kundenbetreuung. Die Automatisierung von Produktionslinien in der Fertigung und der Einsatz von Humanoiden, um weniger von menschlichen Arbeitskräften abhängig zu sein, scheint nur auf zweiter Ebene wichtig zu sein. Kernelement der chinesischen Strategie ist der Aufbau einer skalierbaren Lieferkette für Schlüsselkomponenten.

Japan ist ein Pionier in der Entwicklung humanoider Roboter. Als frühes Beispiel wurde Hondas Asimo bereits im Oktober 2000 vorgestellt. Roboter werden in Japan eher als Gefährten, denn als bloße Werkzeuge gesehen. Humanoide Roboter wie Pepper und Palro sind demzufolge in erster Linie als Sozialroboter konzipiert und kommen in Bildungseinrichtungen, Geschäften und Altenpflegeeinrichtungen zum Einsatz. Diese Ausrichtung spiegelt die Nachfrage einer alternden Gesellschaft wider, mit der Japan konfrontiert ist. Ein wichtiger Schwerpunkt der Projekte liegt auf Robotern, die harmonisch mit Menschen zusammenleben können und als Teil der Gesellschaft akzeptiert sind. Führende Unternehmen wie Kawasaki entwickeln humanoide Roboter als eine Forschungsplattform.

In Europa wird auf die ethischen Implikationen von Robotik und KI besonderes viel Wert gelegt. Im Fokus stehen kollaborative Roboter, die im industriellen Umfeld mit Menschen zusammenarbeiten. Kernthemen sind die Verbesserung der Sicherheit und Effizienz und die Nachahmung menschlicher Fähigkeiten. Die Arbeitskraft von Menschen zu kompensieren, steht dagegen nicht im Fokus. Der Schwerpunkt liegt vielmehr auf einem menschenzentrierten Design und den sozialen und gesellschaftlichen Auswirkungen von Robotern. Die europäischen Unternehmen stehen dem Einsatz von Humanoiden generell eher zurückhaltend gegenüber, wenn es um die kurz- bis mittelfristigen Automatisierungsaufgaben im Fertigungs- und Dienstleistungssektor geht.

+++ Ein bahnbrechendes Robotik Start-up aus Deutschland ist NEURA-Robotics: Hier geht’s zu unserer Gründerstory von NEURA Robotics +++

Ausblick

Dank ihrer menschenähnlichen Geschicklichkeit und Anpassungsfähigkeit sind die Humanoiden prädestiniert, komplexe Aufgaben zu automatisieren, mit denen heutige Roboter durch herkömmliche Programmiermethoden Schwierigkeiten haben. Einen massenhaften Einsatz als universelle Haushaltshelfer dürfte es jedoch kurz- bis mittelfristig nicht geben.

Das POSITION PAPER Humanoid Robots - Vision and Reality von IFR gibt's hier zum freien Download

Kurz mal die Welt retten

Wie GreenTech-Start-ups aus dem DACH-Raum dazu beitragen, die Auswirkungen des Klimawandels zu mildern.

Ist es bereits zu spät, den Klimawandel aufzuhalten? Während diese Frage unablässig für hitzige Debatten sorgt, arbeiten Start-ups unermüdlich an Lösungen für die dringendsten Umweltprobleme. Die DACH-Region erlebt einen rasanten Anstieg von GreenTech-Start-ups, angetrieben durch technologische Innovationen und zunehmenden regulatorischen Druck. Dies zeigt u.a. das DACH GreenTech Software Mapping 2025 von Hi Inov und veranschaulicht, welche vielversprechenden Ansätze und Technologien die Zukunft des GreenTech-Ökosystems in Europa prägen.

Mapping der Herausforderungen und Lösungen

Das Mapping bietet einen umfassenden Überblick über die Softwarelösungen von GreenTech-Start-ups im DACH-Raum. Sie umfassen eine Vielzahl von Ansätzen, um den Anstieg der globalen Temperaturen einzudämmen und die damit einhergehenden wirtschaftlichen und gesellschaftlichen Herausforderungen zu bewältigen.

1. Messung und Optimierung des CO2-Fußabdrucks

Fortgeschrittene Techniken zur Datenerfassung und KI-gesteuerte Analysen helfen Organisationen, ihre Effizienz zu steigern und ihren CO-Fußabdruck zu reduzieren. Sie helfen Unternehmen, jährlich Emissionen von über 216.000 Tonnen CO-Äquivalenten zu vermeiden. Horizon­tale Plattformen bieten allgemeine Monitoring-Tools für branchen­übergreifende Messdienste. Vertikale Lösungen wie die für die Immobilienbranche maßgeschneiderte ESG-Datenplattform Deepki integrieren branchenspezifische Anforderungen.

2. Beschleunigung der Energiewende

Softwarelösungen spielen eine entscheidende Rolle bei der Optimierung der Standortauswahl für die Produktion erneuerbarer Energien, der vorausschauenden Wartung von Infrastruktur und der Verbesserung der Energiespeicherung. Sie können die Schwankungen in der Stromeinspeisung erneuerbarer Energien mindern und somit die Abhängigkeit von fossilen Brennstoffen reduzieren. Das Stuttgarter Start-up metergrid ermöglicht es beispielsweise Mieter*innen in Mehrfamilienhäusern, umweltfreundlichen Solarstrom zu nutzen, der im selben Gebäude produziert wird (mehr dazu in der StartingUp 01/25).

3. Förderung der Kreislaufwirtschaft und Ressourcenoptimierung

Digitale Lösungen erleichtern die Schonung von natürlichen Ressourcen durch intelligentes Ressourcenmanagement, indem sie die Planung und Nutzung von Ressourcen verbessern. Durch den Einsatz von KI lassen sich viele Prozesse optimieren, darunter Recycling, Landwirtschaft und Wassermanagement. So reduziert das Berliner Start-up Freshflow Abfall, indem es die Nachbestellung von frischen Lebensmitteln mit Machine Learning automatisiert und optimiert. Darüber hinaus verbinden digitale Markt­plätze Produzent*innen überschüssiger Ware mit potenziellen Abnehmer*innen, um Ressourcen effizierter zu nutzen.

4. Förderung von Nachhaltigkeitsinitiativen in Unternehmen

Unternehmen nutzen digitale Werkzeuge, um ihre Nachhaltigkeit über die regulatorischen Anforderungen hinaus zu verbessern. Zu den eingesetzten Lösungen zählen CO-Kreditbörsen, die es Organisationen ermöglichen, Emissionen durch strukturierte Märkte auszugleichen, und Mitarbeiterengagement-Plattformen, die die Teilnahme der Belegschaft an ESG-Initiativen fördern. Start-ups wie das Hamburger CarbonStack unterstützen Unternehmen bei der Erstellung von Nachhaltigkeitsberichten und dabei die relevanten Richtlinien einzuhalten.

Die Entwicklung von 2023 bis heute

Insgesamt zeigt das Mapping ein reiferes und strukturierteres GreenTech-Ökosystem, das Europas Position als Pionier in digitalen Klimaschutzlösungen stärkt. Die Entwicklung zwischen den Mappings aus den Jahren 2023 und 2025 verdeutlicht drei wichtige Trends:

1. Anstieg der Anzahl der angebotenen Softwarelösungen

Die steigende Nachfrage nach nachhaltigkeitsorientierten Innovationen in verschiedenen Branchen hat das Wachstum des GreenTech-Ökosystems beschleunigt und zu einem rasanten Anstieg der angebotenen Softwarelösungen geführt.

2. Regulatorisch getriebene Fortschritte

Aufgrund des zunehmenden regulatorischen Drucks wächst der Anteil der angebotenen Lösungen, die auf Compliance-Bedürfnisse wie CSRD, die Rückverfolgbarkeit von Produkten und transparente CO-Buchhaltung eingehen. Es werden zunehmend vertika­lisierte Monitoring-Tools entwickelt, um spezialisierte Datensätze und branchenspezifische Algorithmen zu erstellen.

3. Einfluss von generativer KI

Der Einsatz von generativer KI nimmt zu. Neue Anwendungsfälle im Bereich Nachhaltigkeit umfassen verbesserte Datenanalyse, automatisierte Com­pliance-Berichterstattung, sowie die Echtzeit-Optimierung von CO-Fußabdrücken und Ressourcenmanagement.

Fazit: Ein florierendes Ökosystem mit starker europäischer Führung

Der Klimawandel stellt eine immense Herausforderung dar, deren Bewältigung innovative technologische Lösungen erfordert. Das GreenTech Mapping 2025 verdeutlicht die führende Rolle Europas bei der Entwicklung dieser Lösungen und zeigt ein reiferes GreenTech-Ökosystem mit großer Dynamik. Durch den Einsatz fortschrittlicher Datenana­lysen, KI und Automatisierung sind Start-ups in der DACH­Region gut positioniert, um sowohl wirtschaftlichen als auch ökologischen Mehrwert zu schaffen. Sie werden Unternehmen und politischen Entscheidungsträger*innen dabei helfen, den Übergang zu einer nachhaltigeren Wirtschaft zu beschleunigen und die Folgen des Klimawandels einzudämmen.

Der Autor Dr. Wolfgang Krause leitet als Managing Partner das Deutschlandgeschäft des auf B2B-Digital­lösungen spezialisierten VC-Fonds von Hi Inov.

„Österreich hat einen langen Atem – und das zahlt sich im Bereich Applied AI aus“

Als führende Standorte in Sachen Künstliche Intelligenz liegen die USA und Asien auf der Hand, doch auch in Österreich gibt es eine vielfältige AI-Landschaft. Welche Vorteile der Standort für künstliche Intelligenz mit sich bringt und welche Rolle dabei Applied AI spielt, weiß Clemens Wasner, Gründer von AI Austria und CEO der EnliteAI.

Clemens Wasner ist Gründer des österreichischen Verbandes für Künstliche Intelligenz, AI Austria und CEO des Wiener Venture Studios EnliteAI. Der studierte Informatiker arbeitete über ein Jahrzehnt in Asien, bevor er 2017 EnliteAI gründete.

Herr Wasner, Sie kennen die AI-Szene aus erster Hand. Wie gut ist Österreich im internationalen Vergleich aktuell aufgestellt, wenn es um Applied AI geht?

Gemessen an seiner Größe steht Österreich erstaunlich gut da. Unsere AI–Landscape verzeichnet mittlerweile über 450 Unternehmen, die aktiv mit KI arbeiten – nicht nur Start-ups, sondern auch klassische Industrieunternehmen, Dienstleister und der öffentliche Sektor. Gerade im Bereich der industriellen Anwendungen ist Österreich breit aufgestellt: Es gibt zahlreiche Corporates, die eigene Competence Center gegründet, Ausgründungen vorgenommen oder Lizenzmodelle für KI aufgebaut haben. Auch die Zahl der Inkubatoren und Corporate Venture Capitalisten ist beachtlich. Das Thema ist in der Realwirtschaft angekommen – und das nicht erst seit gestern. Bereits 2018 gab es hierzulande einen deutlichen Aufschwung. Im Bereich der Spitzenforschung sind wir ebenfalls stark: Mit drei sogenannten ELLIS-Hubs –  European Laboratory for Learning and Intelligent Systems – gehören wir zur europäischen Spitze, gemessen an der Größe des Landes.

Sie sprechen beim Blick auf Österreich oftmals vom „AI-Standort mit langem Atem“. Was genau meinen Sie damit und was macht aus Ihrer Sicht einen exzellenten Standort für AI-Start-ups aus?

Der „lange Atem“ ist positiv gemeint und beschreibt das, was Österreich im Bereich Forschung & Entwicklung auszeichnet: kontinuierliche Investitionen, strategischer Weitblick und langfristige Förderstrukturen. Die Steiermark war lange OECD-Spitzenreiter bei F&E-Ausgaben, Wien verfügt über eine dichte Forschungslandschaft. Das sind keine kurzfristigen Hypes, sondern über Jahrzehnte gewachsene Strukturen. Österreich verfügt zudem über eine differenzierte Förderarchitektur, die alle TRL-Stufen abdeckt – von der Grundlagenforschung bis zur Markteintrittsunterstützung. Auch Clusterstrukturen spielen eine Rolle: In Life Sciences etwa gibt es in Wien und Graz funktionierende Ökosysteme, in denen zunehmend auch KI eine Rolle spielt. Diese Verankerung ermöglicht Planbarkeit, die gerade in technologieintensiven Bereichen entscheidend ist.

Zu den Schlüsselfaktoren einen erfolgreichen Standorts zählen Infrastruktur, Talent Pool und Anwendungsmöglichkeiten. Wo sehen Sie hier derzeit die größten Hebel – und auch die größten Defizite – in Österreich?

Ein klarer Vorteil liegt in der Verfügbarkeit von Talenten: Wien zieht seit Jahren hochqualifizierte Developer aus dem osteuropäischen Raum an. Der AI-Fachkräftemangel ist hier weniger ausgeprägt als in anderen europäischen Hauptstädten. Hinzu kommt: Österreich bildet mehr AI-Absolventen aus, als die Wirtschaft derzeit absorbieren kann. Das schafft einen Bewerbermarkt, der gerade für Start-ups günstig ist. Auch Standortfaktoren wie Lebensqualität und erschwingliche Mieten machen zum Beispiel die Hauptstadt Wien attraktiv. Als Besonderheit sehe ich zudem den aktiven Zugang der Stadt: Wien versteht sich als First Client für KI-Anwendungen, etwa in der Analyse von Geodaten, IoT oder der Digitalisierung von Baueinreichprozessen. Hier ist wesentlich mehr Offenheit für politische Vergabe zu finden als in anderen Ländern. Weniger stark ist Wien in der Spitzenforschung vertreten, hier liegt Linz mit der JKU vorn. Aber man kann als kleines Land nicht alles abdecken – und sollte dort Schwerpunkte setzen, wo bestehende Stärken ausbaubar sind.

Was war der Gründungsimpuls für EnliteAI und wie ist Ihr Venture Studio heute aufgestellt?

Ich kam 2016 nach zehn Jahren in Asien zurück nach Österreich. In China und Japan war KI allgegenwärtig, ein regelrechter Hype. Zurück in Europa herrschte Funkstille – das war ein Kulturschock. Ich wollte dem Thema hierzulande Schub geben: 2017 gründete ich den Verband AI Austria und kurz darauf EnliteAI. Unsere Erkenntnis aus früheren Projekten zeigte, dass viele Unternehmen gute Ideen, aber keine Ressourcen zur Umsetzung hatten. Daraus entstand das Venture Studio: Wir entwickeln Prototypen gemeinsam mit Unternehmen und gründen darauf spezialisierte Start-ups. Aktuell sind wir 20 Personen und verfolgen zwei Themen – Detekt, das sich auf den Bereich Mobile Mapping spezialisiert hat, und ein weiteres im Stromnetzmanagement. Mit EnliteAI möchten wir künftig weitere Projekte unterstützen und bereiten dafür eine Dual-Entity-Struktur mit einem eigenen Fonds vor. Ziel ist es, das Modell professionell zu skalieren und Investoren direkt in die Spin-outs zu bringen.

Rechenleistung zählen zu den Schlüsselressourcen in der AI. Was braucht es aus Ihrer Sicht, damit europäische Standorte hier nicht dauerhaft in Abhängigkeit geraten?

Realistisch betrachtet: Die Abhängigkeit besteht bereits. Die großen Hyperscaler sind US-dominiert, ebenso Chips, Kommunikationstools, Social Networks. Europa muss in die digitale Souveränität investieren. Erste Schritte wie AI Factories sind wichtig, aber nicht ausreichend. Wir brauchen europäische Cloud-Anbieter, Chipproduktion auf europäischem Boden und eine nachhaltige Energiepolitik. Frankreichs KI-Boom basiert auf Atomstrom – weil er langfristig planbar ist. Diese Planbarkeit fehlt in vielen europäischen Ländern derzeit. Ohne Strom gibt es keine KI. Auch das zeigen Stimmen von Sam Altman, Elon Musk und anderen. Hier ist ein strategischer Paradigmenwechsel notwendig.

Sie sprachen bereits die vielfältige Landschaft von kleinen und mittleren Unternehmen in Österreich an, die offen für KI sind. Wie gut funktioniert das Matching zwischen Start-ups und klassischen Industrieunternehmen?

Österreich macht hier sehr viel richtig. Es gibt ein breites Netz an Förderinstrumenten – von der Österreichischen Forschungsförderungsgesellschaft FFG über die Austria Wirtschaftsservice bis hin zu regionalen Wirtschaftskammern. Zudem bietet Österreich eine Forschungsförderungsprämie an, bei der 14 Prozent der F&E-Ausgaben quasi mit einem Blankoschein gefördert werden können. Zudem organisieren viele Institutionen aktiv Matchmaking-Events, etwa im Rahmen von PreSeed-, AI-Adoption- oder Innovationsprogrammen. Hinzu kommt der Industry-Startup-Marktplatz mit mehreren Tausend registrierten Unternehmen. Auch Pitchings werden gefördert. Das Ziel ist stets, AI nicht nur in der Theorie zu belassen, sondern in die Realwirtschaft zu bringen. Trotzdem: Viele Unternehmen wissen noch immer nichts davon. Hier braucht es also noch mehr Aufklärung.

Welcher KI-Standort – in Österreich und darüber hinaus – hat Sie zuletzt positiv überrascht?

In Österreich ist Linz für mich der Hotspot schlechthin – die Kombination aus Spitzenforschung und erfolgreichem Technologietransfer ist dort besonders gut gelungen. International beeindruckt mich Twente in den Niederlanden: kein großer Name, aber mit klarer Strategie. Sie haben das Spin-out-Modell von Oxford und Cambridge adaptiert und konsequent umgesetzt – mit IP-Offices, Gründungsberatung und Infrastruktur für Start-ups. Ein weiteres Vorbild ist Heilbronn mit den Campus Founders: Sie haben, unterstützt durch die Dieter Schwarz Stiftung, einen Ort für Unternehmertum und Innovationen geschaffen und könnten Vorbild für viele europäische Regionen werden. Viele Stiftungen schaffen Parks oder Schlösser, aber wesentlich gewinnbringender wäre die Förderung von Entrepreneurship wie es in Heilbronn passiert statt Museumsstiftung. Europa braucht diese neue Denkweise.

Clemens Wasner, vielen Dank für das Gespräch.

Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin