AI Pause – Ein Bericht und Kommentar

Offener Brief AI Pause

Vor einigen Tagen haben mehr als 1.100 Unterzeichner, darunter Elon Musk, Steve Wozniak und Tristan Harris vom Center for Humane Technology, einen offenen Brief unterzeichnet, den man am Dienstagabend online gestellt hat und in dem man alle KI-Labore auffordert, die Entwicklung von KI-Systemen, die leistungsfähiger sind als GPT-4, für mindestens 6 Monate sofort auszusetzen. Dieser öffentliche Diskurs wird unter dem Begriff „AI Pause“ geführt. Was KI/AI ist, erkläre ich in einem separaten Beitrag. Dennoch ist hier auf den bereits bestehenden Beitrag über Open AI bzw. Chat GPT zu verweisen.

Was war der Grund dafür?

Ein neues Forschungspapier von Microsoft mit dem Namen „Funken von Künstlicher Genereller Intelligenz“ hat weltweit bei Experten und Wissenschaftlern im Bereich der Künstlichen Intelligenz (KI) für Aufsehen gesorgt. Dies ist der Grund für den Aufschrei der Tech-Visionäre.

Der Bericht wurde von 14 Forschern verfasst, darunter Eric Horvitz, Chefwissenschaftler von Microsoft. Es beschreibt ihre Erfahrungen und die Tests mit dem KI-System GPT-4, das vor kurzem von OpenAI in Zusammenarbeit mit Microsoft auf den Markt gebracht hat.

Die Forscher unterstellen GPT-4 eine „Artificial General Intelligence“ (AGI). Dies bedeutet, dass es jede intellektuelle Aufgabe verstehen und meistern kann, zu der auch ein Mensch fähig ist. Der Bericht betont auch, dass die Performance von GPT-4 bemerkenswert nah am menschlichen Niveau ist.

Auszüge aus dem Brief:

Moderne KI-Systeme sind schon bald bei allgemeinen Aufgaben konkurrenzfähig zu Menschen und wir müssen uns fragen: Sollten wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten fluten? Sollen wir alle Arbeitsplätze automatisieren?

Sollten wir nichtmenschliche Intelligenzen entwickeln, die uns zahlenmäßig überlegen, klüger, schneller sind und uns schon bald ersetzen können? Sollten wir das Risiko eingehen, die Kontrolle über unsere Zivilisation zu verlieren? Solche Entscheidungen darf man nicht, nicht gewählten Technologieführern überlassen. Man sollte Leistungsfähige KI-Systeme erst entwickeln, wenn man sich sicher ist, dass ihre Auswirkungen positiv sind und ihre Risiken überschaubar bzw. beherrschbar.

Der Brief argumentiert, dass keine Ebene der Planung und des Managements stattfindet und das stattdessen in den letzten Monaten nicht näher bezeichnete „KI-Labore“ in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und Implementierung immer mächtigerer digitaler Gehirne verstrickt sind, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren können.

Die Unterzeichner des Briefes, von denen einige KI-Experten sind, sagen, dass die von ihnen geforderte Pause öffentlich und überprüfbar sein und alle wichtigen Akteure einschließen sollte. Wenn man die genannte Pause nicht schnell umsetzen kann, sollen Regierungen eingreifen und ein Moratorium verhängen, so der Brief.

Sicherlich ist der Brief sowohl wegen der Menschen, die ihn unterschrieben haben – darunter einige Ingenieure von Meta und Google, Stability AI-Gründer und CEO Emad Mostaque und Menschen außerhalb der Technikbranche, wie ein selbsternannter Elektriker oder Kosmetikerin, Influenza… Oh, sorry… Ich meinte natürlich Influencer, als auch wegen derjenigen, die es nicht unterschrieben haben, interessant.

Doch niemand von OpenAI, der Organisation hinter dem Großsprachenmodell GPT-4, hat diesen Brief unterschrieben. Ebenso hat niemand von Anthropic unterschrieben, deren Team sich von OpenAI abgespalten hat, um einen „sichereren“ KI-Chatbot zu entwickeln.

In Anbetracht dieser Entwicklungen zeigt sich, dass es immer mehr Bedenken hinsichtlich der rasanten Entwicklung der künstlichen Intelligenz gibt. Die Unterzeichner des offenen Briefes fordern einen öffentlichen und überprüfbaren Stopp der Entwicklung. Um mögliche negative Auswirkungen und Risiken dieser Technologie zu bewältigen und sicherzustellen, dass die Kontrolle über unsere Zivilisation gewahrt bleibt.

Es bleibt abzuwarten, wie die betroffenen Unternehmen und Regierungen auf diesen offenen Brief reagieren. Doch die Unterstützung durch prominente Persönlichkeiten zeigt, dass man das Thema Künstliche Intelligenz und die potenziellen Gefahren in der Gesellschaft ernst nimmt. Und Diskussionen über ethische sowie regulatorische Fragen gewinnen zunehmend an Bedeutung.

Den kompletten Brief gibt es hier.

Die Gegendarstellung zur AI Pause

Einige Tage darauf, wehren sich Ethiker gegen den offenen Brief zur „AI Pause“, der ihrer Meinung nach „die tatsächlichen Schäden ignoriert“.

Eine Gruppe relativ bekannter KI-Ethiker hat eine Gegendarstellung zu dem umstrittenen offenen Brief zur AI Pause in dieser Woche verfasst. Sie kritisieren, dass der Brief sich auf hypothetische zukünftige Bedrohungen konzentriert, statt die realen Schäden auf den Missbrauch der Technologie heute zurückzuführen sind.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major und Margaret Mitchell sind alles bedeutende Persönlichkeiten in den Bereichen KI und Ethik und arbeiten derzeit gemeinsam am DAIR-Institut. Einer neuen Forschungseinrichtung, die darauf abzielt, KI-bedingte Schäden zu untersuchen, aufzudecken und zu verhindern.

„Die hypothetischen Risiken seien der Fokus einer gefährlichen Ideologie namens „Longtermism“, die die tatsächlichen Schäden ignoriert, die aus dem Einsatz von KI-Systemen heute resultieren“, so die Ethiker. Und sprachen dabei die Arbeitnehmerausbeutung, Datendiebstahl, synthetische Medien, die bestehende Machtstrukturen stützen und die andauernde Konzentration dieser Machtstrukturen in wenige Hände, an.

Die Sorge vor einer Terminator- oder Matrix-ähnlichen Roboterapokalypse sei ein Ablenkungsmanöver. Vor allem, wenn wir gleichzeitig Berichte über Unternehmen wie Clearview AI haben. Primär eingesetzt von der Polizei, um im Grunde genommen unschuldige Menschen zu belasten. Es bestehe keine Notwendigkeit für einen Infiltrations-Roboter á la Terminator. Wenn man Mikrokameras an jeder Haustür hat, die über jeden noch so suspekten Onlinehandel erhältlich sind.

Das DAIR-Team stimmt zwar einigen der Ziele des Briefes zu, wie der Identifizierung synthetischer Medien, betont jedoch, dass man jetzt handeln müsse. Vor allem, um die heutigen Probleme mit den uns zur Verfügung stehenden Mitteln zu lösen:

„Was wir brauchen, ist eine Regulierung, die Transparenz durchsetzt. Es solle nicht ausschließlich klargestellt sein, wann wir mit synthetischen Medien konfrontiert sind. Organisationen, die diese Systeme entwickeln, sollen auch verpflichtend, Trainingsdaten und Modellarchitekturen dokumentieren und offenlegen.“ So, die Ethiker. Die Verantwortung für die Erstellung sicherer Tools soll bei den Unternehmen liegen, die generative Systeme entwickeln und einsetzen. Dies bedeutet im Endeffekt, dass man die Entwickler der Systeme für die von ihren Produkten erzeugten Ergebnisse verantwortlich macht.

Kommentar:

Das aktuelle Rennen hin zu immer größeren und komplexeren „KI-Experimenten“ ist kein vorherbestimmter Weg. Und es geht nicht darum, wie schnell wir voranschreiten. Sondern vielmehr um eine Entscheidung, die man im Interesse der Menschheit treffen muss. Und dies nicht nur auf der finanziellen Ebene. Die Handlungen und Entscheidungen von Unternehmen bedürfen einer Formung durch Regulierungen, die Rechte und Interessen der Menschen schützt. Dies sollte auf jeden Fall klar sein.

Es ist in der Tat Zeit zu handeln. Der Fokus unserer Sorgen sollte jedoch nicht auf imaginären mächtigen digitalen Köpfen oder so genannten Terminatoren liegen. Stattdessen sollten wir uns vielleicht auf die sehr realen und gegenwärtigen ausbeuterischen Praktiken der Unternehmen konzentrieren. Die gewisse Technologien entwickeln und dabei rasch Macht zentralisieren und die soziale Ungleichheiten maximieren.

Und dabei spreche ich von Konzernen, deren Praktiken auch soweit allen geläufig sein sollten. Dieser Brief „AI Pause“ spiegelt eine Stimmung bzw. Meinung wider, die man aus anderen Kontexten kennt. „Nicht Waffen töten Menschen. Menschen töten Menschen“. Oder um Einstein zu zitieren, „Die entfesselte Macht des Atoms hat alles verändert, nur nicht unsere Denkweise, und deshalb treiben wir einer beispiellosen Katastrophe entgegen“.

Obwohl es äußerst unwahrscheinlich ist, dass große Unternehmen jemals zustimmen, die Firmenpolitik zu ändern bzw. offenzulegen oder Forschungsanstrengungen gemäß dem offenen Brief zu pausieren, ist angesichts des Engagements, dass dieser Brief erhalten hat, klar, dass die Risiken real sind. Und damit sind nicht nur die Risiken durch die Nutzung von KI gemeint.

Insgesamt zeigt sich, dass die Regulierung und Transparenz in der KI-Branche von entscheidender Bedeutung sind, um gegenwärtige und zukünftige Herausforderungen zu meistern. Doch dies gilt für den gesamten technologischen Fortschritt, dessen Zeitzeugen wir in den letzten Dekaden sein durften. Die Verantwortung liegt nicht nur bei den Entwicklern, sondern auch bei den Unternehmen, die KI-Systeme einsetzen und bei den politischen Entscheidungsträgern, die dafür sorgen müssen, dass die Rechte und Interessen der Menschen geschützt sind.

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.