Wo die nächsten Ferien verbringen? Die KI schlägt auf Sie zugeschnittene Destinationen vor. Eine Rede oder ein Konzept schreiben? Auch dafür liefert das Tool konkrete Vorschläge. Ein Bild oder Video kreieren für die sozialen Medien? Ein Prompt genügt. Generative Künstliche Intelligenz ist ein noch junges Phänomen und doch in vielen Lebensbereichen kaum mehr weg zu denken. Ob Texte, Bilder oder Musik – sie kann heute in Sekunden erschaffen, wofür es früher Stunden oder Tage gebraucht hat.
Doch der Boom hat eine Kehrseite. KI kann Falschinformationen verbreiten, Urheberrechte verletzen und sie verschlingt beim Training der Modelle und zunehmend auch bei der täglichen Nutzung enorm viel Energie. Zwischen Faszination und Skepsis stellt sich die Frage, wie mit dieser Technologie verantwortungsvoll umzugehen ist.
Künstliche Intelligenz kann heute vieles, weshalb sind nicht alle Anwendungen gleich zu beurteilen?
Dorothea Baur: In der Wissenschaft hat KI längst ihren Platz gefunden. Forschende nutzen KI gezielt und mit spezialisierten Anwendungen. Der Chemienobelpreis 2024 etwa – der auf KI-gestützter Proteinforschung beruht – zeigt, wie sinnvoll und effizient Künstliche Intelligenz eingesetzt werden kann. Solche Anwendungen können einen echten wissenschaftlichen Mehrwert schaffen. Generative KI-Modelle hingegen, wie z.B. ChatGPT, stehen sehr vielen Menschen uneingeschränkt zur Verfügung und verbrauchen enorme Rechenleistung, also Energie. Wir dürfen nicht Äpfel mit Birnen vergleichen.
KI im Einsatz für die Umwelt
Weshalb betrachten Sie generative KI als nicht nachhaltig?
Rechenzentren verbrauchen viel Energie und Wasser und sind deshalb nicht ökologisch. Wirtschaftlich ist sie auch nicht, weil der Nutzen für die Allgemeinheit Stand heute oft gering und viele Anwendungen Experimente oder Marketinginstrumente sind. Auch wurden Kosten nicht internalisiert – man denke zum Beispiel an Urheberrechte: Wäre geistiges Eigentum fair entschädigt worden, hätte generative KI gar nie entstehen können. Und nicht zuletzt kann sie soziale Ungleichheiten verstärken, wenn sie basierend auf ungerechten Daten aus der Vergangenheit Entscheide für die Zukunft fällt.
Rule-based Systems: Entscheidungen basieren auf vordefinierten Regeln, die von Menschen programmiert werden. Jede Regel folgt einem Schema: Wenn Bedingung X, dann tue Y. Beispiel: Wenn die Temperatur über 30 °C liegt, dann schalte die Klimaanlage ein. Ist gut geeignet für strukturierte Problemstellungen, kaum lernfähig.
Machine Learning: Das System lernt aus Daten, anstatt Regeln manuell zu befolgen. Es erkennt Muster in Beispieldaten und kann daraus Vorhersagen oder Entscheidungen treffen. Beispiel: Ein Algorithmus wird mit Tausenden Bildern von Katzen und Hunden trainiert und lernt selbst, die Unterschiede zu erkennen. Ist anpassungsfähig und verbessert sich mit mehr Daten. Die Qualität hängt stark von den Trainingsdaten ab.
Deep Learning: Basiert auf künstlichen neuronalen Netzen. Diese bestehen aus vielen Schichten (“deep”) und können komplexe Muster erkennen. Beispiel: Sprachassistenten wie Siri oder ChatGPT, Gesichtserkennung oder automatische Übersetzer. Ist sehr leistungsfähig bei unstrukturierten Daten (Bilder, Ton, Text) und lernt eigenständig Merkmale, ohne dass man sie vorher definieren muss. Benötigt grosse Datenmengen und viel Rechenleistung.
Welche Verantwortung haben die Nutzenden von KI-Tools ?
Wenn ich beim Grossverteiler ein Produkt kaufe, dann ist es nicht meine Verantwortung zu überprüfen, ob bei der Herstellung Gesetze verletzt wurden. Die Nutzenden haben weder die Verantwortung noch die Macht, strukturelle Probleme der Technologie zu lösen. Das ist Aufgabe von Politik und Unternehmen. Unsere Verantwortung liegt darin, bewusst zu entscheiden, wo wir KI einsetzen: Will ich mein Denken schärfen oder an eine Maschine delegieren? Handle ich im digitalen Raum im Einklang mit meinen eigenen Werten? Diese individuelle Ebene ist wichtig - aber sie ersetzt nicht die systemische Verantwortung.
«Die Tech-Firmen sind kein verlässlicher Partner, wenn es um Werte geht»
Wie sehen Sie die Rolle der Tech-Firmen?
Es braucht ein Zusammenspiel zwischen Politik, Nutzenden und Tech-Firmen. Ich stelle fest, dass sich die Tech-Firmen gerade in Bezug auf die Nachhaltigkeit diskreditiert haben. Bis vor drei Jahren waren sie noch alle wahnsinnig auf Nachhaltigkeit bedacht. Heute wurde vieles über Bord geworfen. Das dominante Ethos im Silicon Valley zielt nicht auf einen sinnvollen Beitrag zur nachhaltigen Entwicklung ab. Da liegt in meinen Augen vieles im Argen. Kommt hinzu, dass die Finanzierung der Technologien hoch spekulativ ist. Viele Beobachter sprechen von einer Bubble, die zu platzen droht - mit möglicherweise grösseren Auswirkungen als die Dotcom Krise von 2003. Es wird immer noch in Versprechen investiert, nicht in Substanz.
KI im Einsatz für die Umwelt
In sehr kurzer Zeit ist viel gegangen in Sachen KI. Was sind Ihre bisherigen Erkenntnisse?
Die Entwicklungen rund um KI überlagern zentrale Nachhaltigkeitsthemen. Kurz schien es, als hätten wir einen Konsens in Richtung „Leave No One Behind“. Doch mit dem Aufkommen neuer Technologien und steigenden geopolitischen Unsicherheiten ist dieser Fokus wieder stark ins Wanken geraten. Aus Nachhaltigkeitssicht können wir uns diesen Stillstand nicht leisten.
KI und Fake können nahe beieinander liegen.
Wegen KI-generierten Inhalten und viel Fake schwindet unser Vertrauen ins Internet. Heute können Unwahrheiten ohne viel Aufwand und in Windeseile in die Welt hinausgetragen werden. Der kanadische Autor Cory Doctorow beschreibt in seinem Buch «Enshitification» wie digitale Plattformen sich selbst zerstören: Erst begeistern sie die Nutzenden, dann werden diese ausgebeutet, am Ende auch die Werbekunden – bis alles nur noch Profitmaximierung ist und am Ende die Plattform stirbt. Insofern bin ich der KI fast dankbar. Sie vertreibt uns teilweise aus dem Internet – und lässt uns den Wert echter Begegnungen wieder schätzen.
«Handle ich im digitalen Raum im Einklang mit meinen Werten?»
Wie gross ist das Problem der fehlenden Transparenz?
Viel Forschung findet in privaten Firmen statt, nicht an Universitäten. Bedeutet, dass sie keinem doppelten Gutachterprozess untersteht. Und aus Gründen des Geschäftsgeheimnisses herrscht keine Transparenz über Daten und Modelle. Die Systeme sind so komplex, dass ihre Ergebnisse kaum nachvollziehbar sind – und die Grenze zwischen Forschung und Marketing verschwimmt zunehmend.
Stösst die generative KI also bald an ihre Grenzen?
Wenn KI zu viele von sich selbst erzeugte Inhalte verarbeitet, verliert sie an Qualität. Gleichzeitig schaffen Menschen weniger Neues – sie kuratieren nur noch. Doch KI ist auf uns angewiesen. Sie braucht unsere Gedanken, unsere Handlungen, unsere Kreativität. Ohne uns hat sie gewissermassen kein Futter.
Dorothea Baur
ist Rednerin, Beraterin und Dozentin zu Ethik, Nachhaltigkeit und künstlicher Intelligenz. Sie promovierte an der Universität St. Gallen und war international in Forschung und Lehre tätig, bevor sie sich vor zehn Jahren selbständig machte. Heute arbeitet sie an der Schnittstelle von gesellschaftlicher Verantwortung und technologischen Entwicklungen – in Vorträgen, Weiterbildung und strategischer Beratung. Am 27. November war sie Keynote-Speakerin an der Umweltbeobachtungskonferenz in Bern.
