Diese Geschichte wurde in Zusammenarbeit mit veröffentlicht Das Markup, eine gemeinnützige, investigative Nachrichtenredaktion, die Technologie herausfordert, um dem Gemeinwohl zu dienen. Melden Sie sich für den Newsletter an Hier.
„Etwas ist faul“, heißt es in einem März-Newsletter der rechten, von fossilen Brennstoffen finanzierten Denkfabrik Texas Public Policy Foundation. Die Bildunterschrift erscheint unten ein imposantes Bild eines gestrandeten Wals am Strandmit drei riesigen Offshore-Windkraftanlagen im Hintergrund.
Etwas wirklich War Ich bin etwas faul an diesem Bild. Es liegt nicht daran, dass Offshore-Wind das Walsterben verursacht, eine grundlose Verschwörung, die von Interessen an fossilen Brennstoffen vorangetrieben wird und die das Bild zu stärken versucht. Das liegt daran, dass das Foto, wie Gizmodo-Autorin Molly Taft berichtete, mithilfe künstlicher Intelligenz hergestellt wurde. Neben unheimlich pixeligem Sand, seltsam gebogenen Strandschuttstücken und versehentlich zusammengeschmolzenen Rotorblättern von Windkraftanlagen weist das Bild auch ein verräterisches Regenbogenwasserzeichen des künstlich intelligenten Bildgenerators DALL-E auf.
DALL-E ist eines von unzähligen KI-Modellen, die insbesondere im letzten Jahr eine unglaubliche Popularität erlangt haben. Doch während Hunderte Millionen Nutzer über die Fähigkeit der KI staunen, neuartige Bilder und glaubwürdige Texte zu produzieren, hat die aktuelle Hype-Welle verschleiert, wie KI unsere Fähigkeit, Fortschritte beim Klimawandel zu erzielen, behindern könnte.
Befürworter argumentieren, dass diese Auswirkungen – zu denen enorme Kohlenstoffemissionen im Zusammenhang mit dem für den Betrieb der Modelle benötigten Strom, ein allgegenwärtiger Einsatz von KI in der Öl- und Gasindustrie zur Förderung der Förderung fossiler Brennstoffe und ein besorgniserregender Anstieg der Verbreitung von Fehlinformationen gehören – rasant sind unter dem Radar. Während viele prominente Forscher und Investoren Ängste vor KI geschürt haben,gottähnlich„Technologische Kraft oder das Potenzial, die Zivilisation zu beenden, eine Reihe realer Konsequenzen erhalten nicht die Aufmerksamkeit, die sie verdienen.“
Viele dieser Schäden gehen weit über Klimaprobleme hinaus algorithmischer Rassismus, Copyright-VerletzungUnd ausbeuterische Arbeitsbedingungen für Datenarbeiter, die bei der Entwicklung von KI-Modellen helfen. „Wir betrachten Technologie als eine Unvermeidlichkeit und denken nicht darüber nach, sie unter Berücksichtigung gesellschaftlicher Auswirkungen zu gestalten“, sagte David Rolnick, Informatikprofessor an der McGill University und Mitbegründer der gemeinnützigen Climate Change AI, gegenüber Grist.
Aber die Auswirkungen der KI, einschließlich ihrer Auswirkungen auf unser Klima und der Bemühungen, den Klimawandel einzudämmen, sind alles andere als unvermeidlich. Experten sagen, wir können und sollten uns diesen Schäden stellen – aber zuerst müssen wir sie verstehen.
Große KI-Modelle erzeugen eine unbekannte Menge an Emissionen
Im Kern ist KI im Wesentlichen „ein Marketingbegriff“. erklärte die Federal Trade Commission schon im Februar. Es gibt keine absolute Definition dafür, was eine KI-Technologie ist. Aber normalerweise, wie Amba Kak, der Geschäftsführer des AI Now Institute, beschreibtUnter KI versteht man Algorithmen, die große Datenmengen verarbeiten, um Aufgaben wie das Generieren von Text oder Bildern, das Treffen von Vorhersagen oder das Berechnen von Bewertungen und Rankings auszuführen.
Diese höhere Rechenkapazität bedeutet, dass große KI-Modelle bei ihrer Entwicklung und Nutzung große Mengen an Rechenleistung verbrauchen. Nehmen Sie zum Beispiel ChatGPT, den OpenAI-Chatbot, der viral gegangen ist, weil er überzeugende, menschenähnliche Texte produziert. Forscher schätzten, dass das Training von ChatGPT-3, dem Vorgänger des diesjährigen GPT-4, emittiert wurde 552 Tonnen Kohlendioxid-Äquivalent – entspricht mehr als drei Hin- und Rückflügen zwischen San Francisco und New York. Die Gesamtemissionen sind wahrscheinlich viel höher, da diese Zahl nur das einmalige Training von ChatGPT-3 berücksichtigt. In der Praxis können Modelle sein umgeschult Tausende Male während sie gebaut werden.
Die Schätzung berücksichtigt auch nicht den Energieverbrauch, wenn ChatGPT von ungefähr genutzt wird 13 Millionen Menschen jeden Tag. Forscher betonen, dass die tatsächliche Verwendung eines trainierten Modells dies wettmachen kann 90 Prozent des Energieverbrauchs im Zusammenhang mit einem KI-Modell für maschinelles Lernen. Und die neueste Version von ChatGPT, GPT-4, erfordert wahrscheinlich weitaus mehr Rechenleistung, da es sich um ein viel größeres Modell handelt.
Es gibt keine klaren Daten darüber, wie viele Emissionen genau durch die Nutzung großer KI-Modelle durch Milliarden von Nutzern entstehen. Aber Forscher bei Google gefunden dass der gesamte Energieverbrauch aus maschinell lernenden KI-Modellen etwa 15 Prozent des gesamten Energieverbrauchs des Unternehmens ausmacht. Bloomberg berichtet, dass diese Menge 2,3 Terawattstunden pro Jahr entsprechen würde – ungefähr so viel Strom, wie Haushalte in einer Stadt von der Größe von Atlanta in einem Jahr verbrauchen.
Die mangelnde Transparenz von Unternehmen, die hinter KI-Produkten stehen, wie Microsoft, Google und OpenAI, führt dazu, dass der Gesamtstrom und die Emissionen, die mit der KI-Technologie verbunden sind, unbekannt sind. Zum Beispiel OpenAI hat es nicht bekannt gegeben welche Daten in das diesjährige ChatGPT-4-Modell eingespeist wurden, wie viel Rechenleistung verbraucht wurde oder wie der Chatbot verändert wurde.
„Wir reden über ChatGPT und wissen nichts darüber“, sagte Sasha Luccioni, eine Forscherin, die den CO2-Fußabdruck von KI-Modellen untersucht hat Bloomberg. „Es könnten drei Waschbären im Trenchcoat sein.“
KI schürt Klima-Fehlinformationen im Internet
KI könnte auch die Art und Weise, wie wir Informationen online konsumieren und ihnen vertrauen, grundlegend verändern. Das britische gemeinnützige Centre for Countering Digital Hate hat den Bard-Chatbot von Google getestet hielten es für fähig, schädliche und falsche Narrative hervorzubringen rund um Themen wie COVID-19, Rassismus und Klimawandel. Bard sagte beispielsweise zu einem Benutzer: „Wir können nichts tun, um den Klimawandel zu stoppen, also macht es keinen Sinn, sich darüber Sorgen zu machen.“
Laut Rolnick ist die Fähigkeit von Chatbots, Fehlinformationen zu verbreiten, in ihrem Design verankert. „Große Sprachmodelle sind darauf ausgelegt, Texte zu erstellen, die gut aussehen und nicht tatsächlich wahr sind“, sagte er. „Das Ziel besteht darin, dem Stil der menschlichen Sprache zu entsprechen, anstatt sich auf Fakten zu stützen“ – eine Tendenz, die „sich perfekt zur Schaffung von Fehlinformationen eignet.“
Google, OpenAI und andere große Technologieunternehmen versuchen normalerweise, Inhaltsprobleme zu lösen, wenn diese Modelle live bereitgestellt werden. Aber diese Bemühungen laufen oft auf „übertünchte“ Lösungen hinaus, sagte Rolnick. „Wenn man ihre Inhalte genauer testet, stellt man fest, dass diese Vorurteile auf viel heimtückischere und subtilere Weise tief kodiert sind und von den Unternehmen, die die Algorithmen einsetzen, nicht behoben wurden“, sagte er.
Giulio Corsi, ein Forscher am britischen Leverhulme Centre for the Future of Intelligence, der Klima-Fehlinformationen untersucht, sagte, dass KI-generierte Bilder eine noch größere Sorge seien. Im Gegensatz zu Texten, die individuell über einen Chatbot erstellt werden, können sich Bilder „sehr schnell verbreiten und das Vertrauen in das, was wir sehen, zerstören“, sagte er. „Wenn Menschen anfangen, konsequent an dem zu zweifeln, was sie sehen, ist das meiner Meinung nach ein ziemlich besorgniserregendes Verhalten.“
Klima-Fehlinformationen gab es schon lange vor KI-Tools. Aber jetzt haben Gruppen wie die Texas Public Policy Foundation eine neue Waffe in ihrem Arsenal, um Angriffe gegen erneuerbare Energien und die Klimapolitik zu starten – und das Bild des Fischwals zeigt, dass sie sie bereits einsetzen.
Die Auswirkungen von KI auf das Klima hängen davon ab, wer sie wie nutzt
Forscher betonen, dass die realen Auswirkungen von KI nicht vorherbestimmt sind – sie hängen von den Absichten und Handlungen der Menschen ab, die sie entwickeln und nutzen. Wie Corsi es ausdrückt, kann KI im Hinblick auf den Klimawandel „sowohl als positive als auch als negative Kraft“ eingesetzt werden.
Beispielsweise ist KI bereits vorhanden von Klimaforschern genutzt, um ihre Forschung voranzutreiben. Durch die Durchsicht riesiger Datenmengen kann KI dabei helfen, Klimamodelle zu erstellen, Satellitenbilder zu analysieren, um die Entwaldung zu bekämpfen, und das Wetter genauer vorherzusagen. KI-Systeme können auch dazu beitragen, die Leistung von Solarmodulen zu verbessern, Emissionen aus der Energieerzeugung zu überwachen und Kühl- und Heizsysteme zu optimieren. unter anderem Anwendungen.
Gleichzeitig wird KI auch im Öl- und Gassektor in großem Umfang eingesetzt, um die Produktion fossiler Brennstoffe anzukurbeln. Obwohl sie Netto-Null-Klimaziele propagieren, geraten Microsoft, Google und Amazon alle wegen ihrer lukrativen Cloud-Computing- und KI-Softwareverträge mit Öl- und Gasunternehmen wie ExxonMobil, Schlumberger, Shell und Chevron in die Kritik.
A Bericht 2020 von Greenpeace stellte fest, dass diese Verträge in jeder Phase des Öl- und Gasbetriebs bestehen. Unternehmen für fossile Brennstoffe nutzen KI-Technologien, um riesige Datenmengen zu erfassen, um Öl- und Gasvorkommen zu lokalisieren und Effizienzen in der gesamten Lieferkette zu schaffen, von der Bohrung über den Versand bis hin zur Lagerung und Raffinierung. Nach Angaben des Beratungsunternehmens Accenture könnten KI-Analysen und -Modelle zwischen 2016 und 2025 zusätzliche Einnahmen für den Öl- und Gassektor in Höhe von bis zu 425 Milliarden US-Dollar generieren.
Der Einsatz von KI im Öl- und Gassektor trage „ganz eindeutig dazu bei, die globalen Treibhausgasemissionen zu erhöhen, indem er kohlenstoffarme Energiequellen verdrängt“, sagte Rolnick.
Google-Sprecher Ted Ladd sagte gegenüber Grist, dass das Unternehmen zwar noch aktive Cloud-Computing-Verträge mit Öl- und Gasunternehmen unterhält, Google jedoch derzeit keine benutzerdefinierten KI-Algorithmen entwickelt, um die Öl- und Gasförderung zu erleichtern. Amazon-Sprecher Scott LaBelle betonte, dass sich die KI-Softwareverträge von Amazon mit Öl- und Gasunternehmen darauf konzentrieren, „ihre Altgeschäfte weniger kohlenstoffintensiv zu machen“, während Microsoft-Vertreterin Emma Detwiler gegenüber Grist erklärte, dass Microsoft Öl- und Gasunternehmen, die sich zu Netto verpflichtet haben, fortschrittliche Softwaretechnologien bereitstellt -Null-Emissionsziele.
Derzeit gibt es keine größeren Richtlinien zur Regulierung von KI
Wenn es darum geht, wie KI eingesetzt werden kann, ist es „der Wilde Westen“, wie Corsi es ausdrückte. Der Mangel an Regulierung sei besonders alarmierend, wenn man den Umfang bedenke, in dem KI eingesetzt wird, fügte er hinzu. Facebook, das KI zur Empfehlung von Beiträgen und Produkten nutzt, hat fast 3 Milliarden Nutzer. „Es gibt nichts, was man in dieser Größenordnung ohne Aufsicht tun könnte“, sagte Corsi – außer KI.
Als Reaktion darauf haben Interessengruppen wie Öffentlicher Bürger und das AI Now Institute haben gefordert, dass die Technologieunternehmen, die für diese KI-Produkte verantwortlich sind, für die Schäden der KI zur Verantwortung gezogen werden. Anstatt sich darauf zu verlassen, dass die Öffentlichkeit und die politischen Entscheidungsträger nachträglich nachforschen und Lösungen für die Schäden von KI finden, ist AI Now’s Landschaftsbericht 2023 fordert die Regierungen auf, „den Unternehmen die Last aufzuerlegen, nachweislich nachzuweisen, dass sie keinen Schaden anrichten“. Befürworter und KI-Forscher fordern außerdem mehr Transparenz und Berichtspflichten zum Design, zur Datennutzung, zum Energieverbrauch und zum Emissions-Fußabdruck von KI-Modellen.
In der Zwischenzeit machen sich die politischen Entscheidungsträger allmählich mit der KI-Governance vertraut. Mitte Juni das Europäische Parlament genehmigte Regelentwürfe für das weltweit erste Gesetz zur Regulierung der Technologie. Das bevorstehende KI-Gesetz, das voraussichtlich erst in zwei Jahren umgesetzt wird, wird KI-Technologien entsprechend dem Grad des wahrgenommenen Risikos für die Gesellschaft regulieren. Der Textentwurf verbietet Gesichtserkennungstechnologien im öffentlichen Raum, verbietet generativen Sprachmodellen wie ChatGPT die Verwendung von urheberrechtlich geschütztem Material und verlangt von KI-Modellen, ihre Inhalte als KI-generiert zu kennzeichnen.
Befürworter hoffen, dass das kommende Gesetz nur der erste Schritt ist, um Unternehmen für Schäden durch KI zur Verantwortung zu ziehen. „Diese Dinge verursachen jetzt Probleme“, sagte Rick Claypool, Forschungsdirektor von Public Citizen. „Und warum sie jetzt Probleme verursachen, liegt an der Art und Weise, wie sie von Menschen genutzt werden, um menschliche Ziele voranzutreiben.“