Digitale Geschichten

Agent GPT: Brauchen wir eine Pause in der Entwicklung von KI?

Mir geht es wie wohl vielen von Euch: Ich bin der Faszination von Generative AI erlegen. Ich versinke in faszinierenden Bildwelten, stelle ChatGPT nicht nur Fragen, um faktisches Wissen zu bekommen. Ich nutze den Bot, um mich in die Lebensrealität von anderen Menschen zu begeben, ich nutze ihn als intellektuellen Sparringspartner, um meine eigenen Sichtweisen zu hinterfragen und natürlich als ultmativen Ratgeber für #Midjourney Prompts. Das ist alles so unfassbar, dass ich noch vor einem Jahr nicht gedacht hätte, dies überhaupt jemals zu erleben. Nun ist es Realität.

Wenn da nur nicht dieses Gefühl in der Magengrube wäre

Jeden Morgen bei der ersten Tasse Kaffee scrolle ich durch meine News Feeds und Experten Blogs. Der Effekt ist seit einem halben Jahr eigentlich immer der gleiche: die Entwicklungen, die quasi über Nacht passiert sind, machen mich wacher als das Koffein im Kaffee. Der vorerst letzte heftige Adrenalinschub und der eigentlich Grund dieses Artikels ist ein GitHub-Repository, das Ende März veröffentlicht wurde und seitdem unter den Top 5 in den Trends steht: AutoGPT

Agent-GPT: ChatGPT auf Steroiden

Erinnert Ihr Euch noch an die Diskussionen vor ein paar Wochen? ChatGPT verfüge über keine aktuellen Informationen, der Wissensstand endet im Jahr 2021. Darüber können wir mittlerweile nur noch müde lächeln. Doch auch dies ist nur eine kleine Randnotiz zum wirklich nächsten großen Schritt: GPT Agenten = ChatGPT auf Steroiden. Einem Agenten geben wir nur noch ein Ziel vor. Dieses Ziel strukturiert der Agent dann eigenständig in Teilaufgaben, die er dann Schritt für Schritt erledigt. Dabei nutzt er die Sprachkompetenz von Chat-GPT und gibt diesem die nötigen Inputs – wie gesagt – ohne (!) menschliches Zutun. Ein Beispiel:

Wenn ein Agent dafür sorgt, dass ich zum Dinner mit Elon Musk eingeladen werde

Die Zielvorgabe ( = der menschliche Prompt): Sorge dafür, dass ich von Elon Musk zum Dinner eingeladen werde. Der Agent teilt dieses Ziel nun in mehrere Aufgaben auf. Zum Beispiel:

  1. Recherchiere die Interessen von Elon Musk
  2. Wer sind die Bekannten von Elon Musk
  3. Welchen Mehrwert müssten wir bieten, um für Elon Musk interessant zu sein?
  4. Schreibe persönliche Nachrichten an die Bekannten von Elon Musk, um über die Bedeutung eines Dinners mit Dir zu informieren. Verweise auf Deine Social Media Kanäle

Aufgaben 1 und 2 werden durch Internetrecherche gelöst – es werden die aktuellsten Informationen zu Elon Musk gesucht.

Für die Aufgabe Nummer 3 muss der Bot mich gut kennen, meine Stärken, meine Expertise. Nur so kann er überhaupt meinen potentiellen Mehrwert für Elon Musk evaluieren. Dazu steht bereits ein „Langzeitgedächtnis“ für GPT zur Verfügung, aus dem er alles Relevante für genau diese Aufgabe ziehen kann. Je länger der Bot mich kennt, umso besser die Zielumsetzung.

Aufgabe Nummer 4 kann der Bot meines Wissens aktuell nicht umsetzen. Er kann keine persönlichen Nachrichten zum Beispiel über Twitter an die Freunde von Elon Musk verschicken. Aber auch dies mag nur eine Frage der Zeit sein.

Agenten sind für jeden von uns nur ein paar Mausklicks entfernt

Das Setup von AutoGPT erfordert ein gewisses Maß an technischem Verständnis. Es gibt allerdings so gute Schritt für Schritt Anleitungen, dass es eigentlich fast jeder von uns lokal installieren können sollte. Für wen das aber zu aufwendig ist, der kann solch einen Agenten auch einfach über ein Browser-Interface bedienen – der Code dafür steht übrigens auf Nummer 1 der GitHub Tends.

https://www.linkedin.com/embeds/publishingEmbed.html?articleId=7964798118439355370&li_theme=light

Jeder kann es testen, eigner API-Key vorausgesetzt.

Die mächtigsten Tools der Menschheitsgeschichte für alle

Es braucht nicht viel Phantasie, um zu erahnen, was dies bedeutet. Ein Produkmanager gibt AutoGPT das Ziel vor, die Markteinführung von Produkt X zu planen und sieht nur noch dabei zu, wie der Agent seine Aufgaben erledigt. Hacker brauchen nicht einmal mehr Programmierkenntnisse, sie müssen nur Zielvorgaben formulieren können. Programmieren kann der Bot selbst.

Haben wir das Feuer, das wir entfacht haben, noch im Griff?

Das alles passiert in einer Geschwindigkeit, die uns den Atem stocken lässt. Mit noch nicht absehbaren Konsequenzen für Arbeitswelt, Gesellschaft und die Zukunft der Menschheit. Gerade die Entwicklung der Agenten zeigt deutlich, wie sich die Technologie exponentiell ausbreitet und in ihrer Wirkweise verstärkt. Und genau deshalb braucht es eine Pause in der Weiterentwicklung. Damit stimme ich dem Inhalt des offenen Briefes des Future for Life Institutes zu, den viele Tech-Größen im Silicon Valley unterschrieben haben.

Ist eine Pause realistisch umsetzbar?

Ich halte sie zumindest nicht für unmöglich. Der aktuelle Wettlauf um das beste LLM muss von außen unterbrochen werden. Von innen heraus – also aus Sicht eines CEOs von einem der betroffenen Unternehme – wird das nicht funktionieren. Das Unternehmen, das die Entwicklung freiwillig stoppt, wird zurückfallen im Kampf um Milliardenumsätze und Marktmacht. Der Impuls muss von außerhalb kommen.

Was ist mit China?

Die Frage, die sofort gestellt wird, ist: Was ist, wenn China alleine weitermacht? Wird es eher nicht, denn das autokratische Regime hat mindestens genauso viel Sorge, die Kontrolle zu verlieren, wie der Rest der Welt. Wenn es wirklich um die Zukunft der Menschheit geht, haben wir schon bewiesen, dass wir das technisch Mögliche nicht umsetzen.

Wann wurde schon jemals eine Entwicklung gestoppt?

Beispiele gibt es: Die genetische Manipulation menschlicher Embryonen ist möglich, wird aber nicht umgesetzt. Und das weltweit. Es gab eine Ausnahme – der chinesische Wissenschaftler He Jiankui hat dies vor einigen Jahren entgegen der ethischen Auflagen Chinas dennoch gemacht. Er hat dafür eine Haftstrafe von drei Jahren abgesessen und ein lebenslanges Berufsverbot.

Praktische Umsetzung durch die Regulierung von Rechenleistung?

Wie könnte denn ganz praktisch die weitere Erstellung von weiteren noch machtvolleren AI-Modellen reguliert werden? Stellschrauben sind

  • Der Input an Daten
  • Die Entwicklung von Algorithmen
  • Das verfügbare Talent (Experten)
  • Rechenleistung

Von den vier Parametern ist – laut offenem Brief – die Rechenleistung am einfachsten staatlich zu regulieren. Ist das wirklich so bedeutend? Oh ja! Das zeigt der Blick auf die Grafik, die die benötigte Rechenleistung für das Trainieren diverser AI-Modelle aufzeigt.

No alt text provided for this image
Quelle: https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf

Die Darstellung mag auf den ersten Blick täuschen, den die Y-Achse ist eine logarithmische Achse. In Worten: GPT-4 benötigte (wahrscheinlich) die 7.000 (!) fache Rechenleistung gemessen in PetaFlop wie GPT-3. Wer sind die Unternehmen? Unter anderem Arm, Apple, Alphabet, Nvidia, Intel, Baidu – also ein Großteil unter direkter amerikanischer Kontrolle. Allerdings produziert z.B. Nvidia nicht in den USA, sondern in Taiwan und Südkorea.

Ich bin hier nicht tiefer in die Lieferketten und weltweiten Ressourcen eingestiegen, auf den ersten Blick erscheint mir diese Maßnahme effektiv zu sein.

Der Regulierungsdruck weltweit steigt

Die gute Nachricht: Der Regulierungsdruck weltweit steigt. Sowohl die Vereinigten Staaten als auch die Europäische Union sind gerade dabei, „AI Boards“ zusammenzustellen, die an Regularien arbeiten. Dafür braucht es Zeit. Darum brauchen wir eine Pause.

Damit das Feuer, das wir mit Generative AI entfacht haben, uns auch weiter wärmt und uns nicht verbrennt.