top of page

STOCHASTISCHER PAPAGEI ODER SUPERINTELLIGENZ



Und warum es jetzt Sinn macht, über Werte nachzudenken 


ChatGPT ist seit heute online. Während Sam Altmann noch vor wenigen Tagen vor dem US Senat mehr als 3 Stunden Rede und Antwort stand, bereitet sein Unternehmen OpenAI den Launch eines neuen features vor: ChatGPT kann nun auch online im Internet suchen und recherchieren. In seiner Argumentation vor den Senatoren stellt Altmann fest: “Wenn das schief geht, kann es ganz schrecklich schief gehen.”


Ich befasse mich seit Monaten intensiv mit Large Language Multi Modalen Modellen. Neben GPT4 gibt es eine ganze Reihe von Sprach- und Bildmodellen, die dafür sorgen, dass neue, darauf aufbauende KI-Tools wie die Schwammerln aus dem Boden schießen. Täglich werden Dutzende White Paper veröffentlicht, die auf neue, ungeahnte Fähigkeiten der Modelle hinweisen. Die Informationsflut ist selbst für Wissenschafter:innen und KI-Expert:innen kaum mehr zu überblicken.

Wer mich kennt, weiß, wie technologiebegeistert ich bin. Innovation in praktischen Mehrwert zu übersetzen ist seit vielen Jahren mein Beruf und meine Passion. Und wie viele von Euch bin ich fasziniert von den unglaublichen Ergebnissen, die chatGPT & Co liefern. Das automatische Generieren von Texten, Konzepten, Bildern, Präsentationen, “chatten” mit einem umfassenden Dokument, Logos und das Erstellen ganzer Geschäftsmodelle ist nun auf Zuruf in Sekundenschnelle verfügbar. 


“Prompten” ist das neue Googeln. Das zeitraubende und mühsame Recherchieren im Internet ist obsolet geworden. Doch mit all der Begeisterung schwingt nicht nur für mich eine ordentliche Portion Skepsis über Gefahren und Missbrauch mit. 


Von vorne: Im Jahr 2017 hat Google mehr oder weniger per Zufall das Transformer-Modell entwickelt. Eigentlich war die Methode als Training für Googles Übersetzer gedacht, um Sprachen, die geschlechterspezifische Pronomen verwenden, besser zu verstehen. Die Methode wurde in einem White-Paper “Attention is all you need” veröffentlicht. Der Name war Programm, die Methode hat tatsächlich alle Aufmerksamkeit von KI-Expert:innen auf der ganzen Welt auf sich gezogen. Somit war die Basis für die Entwicklung generativer künstlicher Intelligenz gelegt. 

Wie funktioniert's: ein neuronales Netzwerk wird mit immensen Datensätzen gefüttert. Dann lässt man die KI fehlende Worte, Pixel, Fragmente suchen, ergänzen und erhöht damit Schritt für Schritt die Wahrscheinlichkeiten der richtigen Antwort. Das System lernt selbständig aufgrund von Anweisungen, sogenannten Algorithmen, also Software-Code, und korrigiert dabei seine Wahrscheinlichkeitsparameter. In weiterer Folge optimiert man die KI mittels RLHF, das steht für reinforced learning with human feedback, also Menschen bewerten manuell die Ergebnisse der KI. Damit sollen schädliche und gefährliche Antworten aussortiert werden. Dann wird noch eine Schicht automatisierter Sicherheit - do’s und dont’s - darüber gelegt. Voilá.

Nun können in einem geschlossenen Labor mit einer begrenzten Anzahl von menschlichen Wächtern auch nur begrenzt die Fähigkeiten dieser Modelle getestet werden. Mit der Freigabe von chatGPT für die Öffentlichkeit, hat openAI-Eigentümer Microsoft den Startschuss für ein gefährliches Wettrennen um eine Vorherrschaft in Sachen KI gelegt.

In seinem zuletzt publizierten White Paper mit dem Titel “Sparks of Artificial General Intelligence: Early experiments with GPT-4” stellt Microsoft fest, dass GPT4 “Funken von allgemeiner künstlicher Intelligenz” zeigt. AGI steht für artificial general intelligence und gilt als der Zustand, in dem eine autonome künstliche Intelligenz die kognitiven Fähigkeiten von Menschen erreicht oder übertrifft. Dieser Zustand, vor dem wir alle großen Respekt haben sollten, wird in der Zukunftsforschung auch als technologische Singularität bezeichnet, in dem die Maschine selbstlernend eine unaufhaltbare Superintelligenz entwickelt.

Ja, manche Ergebnisse der KI sind falsch, auch halluziniert das Modell von Zeit zu Zeit, erfindet Dinge und Quellen, die es nicht gibt. Das hat uns anfangs dazu verleitet, in chatGPT nur einen “stochastischen Papageien” zu sehen, der nachplappert, was er gehört hat, aber nicht selbst konzeptionieren kann. Wir sehen jedoch: alles ist Sprache - Mathematik, Software, Biologie, Physik und unsere DNA. Sogar ein Bild ist letztlich nichts weiter als Sprache von Pixeln. Die bahnbrechenden und mächtigen Fähigkeiten, die die Modelle mittlerweile inflationär zeigen, erstaunen selbst die Erfinder. Die KI konzeptioniert nicht nur, sie argumentiert und kombiniert in neuer Weise.

Geoffrey Hinton, auch der Gottvater der KI, genannt, stieg kurz nach Ankündigung der Zusammenlegung von Google Brain mit der Google Tochter DeepMind vom Unternehmen aus. Der Turing-Preis Gewinner gilt als der Erfinder des Optimierungsprozesses “Backpropagation”. Damit wird das neuronale Netzwerk vom Ergebnis her rückwärts auf Genauigkeit justiert. Einer seiner Studenten an der Universität von Toronto war bezeichnenderweise Ilya Sutskever, das technologische Mastermind hinter OpenAI. Hinton begründet seinen Ausstieg bei Google mit schweren Bedenken im Hinblick auf eine unkontrollierte Freigabe der KI und deren jüngste Entwicklungen. 

Aktuell werden durch die Nutzung der Sprachmodelle pro Minute 310 Millionen Worte generiert. Das entspricht einer Verdoppelung des gesamten digitalisierten Wissens der Menschheit alle 14 Tage ... die Ergebnisse werden immer akkurater, die produzierten Daten liefern weiteren Lernstoff für die KI. Mit jedem Prompt, den wir absetzen, trainieren wir das System laufend weiter. Es ist, letztendlich, ein Abbild unserer Gedanken ...

ChatGPT hat inzwischen alle gängigen Intelligenz-Tests mit zum Teil großem Abstand zur menschlichen Leistung bestanden. Wichtig zu wissen: es wurde nicht gezielt für bestimmte Tests trainiert, sondern die Resultate wurden aufgrund der genannten Wahrscheinlichkeitsrechnung erzielt. Auch die “Theory of Mind, die Kunst des Einnehmens von Perspektiven, besteht das Modell mit Bravour. Dieses Konzept aus der Psychologie beschreibt die Fähigkeit, mentale Zustände erkennen und bewerten zu können. Das heißt nichts anderes, als dass KI auch bestens unsere Emotionen lesen, bewerten und - wie wir von Social Media wissen - auch entsprechend manipulieren kann. In einer Studie der University of California wurde den Antworten der KI sogar mehr Empathie bescheinigt, als der von Menschen, in diesem Fall Ärzte.

Die Veröffentlichung von ChatGPT durch Microsoft hat nun natürlich alle großen Technologie-Player in enormen Zugzwang gebracht. Mit seinem Marktanteil von knapp 90 % in der Internet-Suche, steht vor allem Google unter Druck. Google und Deep Mind gelten als Vorreiter in Sachen KI-Entwicklung. Mit AlphaGo hat Deep Minds Sprachmodell eines der komplexesten Spiele gewonnen und den bisherigen Weltmeister geschlagen, mit dem Transformer-Modell AlphaFold wurden Durchbrüche im Bereich der Proteinstrukturvorhersage erreicht. Doch seit dem Eklat rund um Blake Lemoin und seinem öffentlich geäußerten Verdacht, Google’s Chatbot Lamda hätte ein Bewusstsein entwickelt, verhielt sich Google mit Bedacht. 

Vor wenigen Tagen hat Google auf seiner fulminant präsentierten I/O Konferenz seine Gegenoffensive gestartet. Gemini, neue large language multi modal (= "multi modal" steht für die verschiedenen Formate Text, Bild, Video, Code) Modell, das aktuell trainiert, soll 12 x größer sein als GPT-4. Die Ankündigung ist vielversprechend: KI wird zum Herzstück des Geschäftsmodells und tief in allen Google-Applikationen verbaut. Generative KI wird also zum omnipräsenten digitalen Assistenten, der mit natürlicher Sprache - entweder durch das geschriebene oder gesprochene Wort - bedient werden kann und selbständig Aufgaben ausführt. Google betont mehrfach die Relevanz von Zuverlässigkeit, Transparenz und Privatheit und will sich als besonders verantwortungsvollen Anbieter positionieren. Die Schnittstelle zu den hauseigenen large language Modellen erhalten nur authorisierte Partner.

Facebook’s large language model LLAMA wurde vor einigen Wochen einem eingeschränkten Kreis von KI-Forschern zur Verfügung gestellt, jedoch vor wenigen Tagen “geleakt”, sprich ist frei zum Download verfügbar. Das befeuert das riskante Rennen zusätzlich. Nun kann jeder, auch ohne Vorwissen, an seiner eigenen Superintelligenz experimentieren ... erste äußerst bedenkliche Auswüchse sind schon zu sehen.

Hinter den Begriffen "AutoGPT" und "BabyAGI" steht das selbständige Ausführen von Anweisungen über mehrere Applikationen hinweg. Durch die simple Bedienung mit einfacher Sprache können bereits jetzt und ohne großes Fachwissen über Programmiersprachen oder Schnittstellen, ganze Prozessketten automatisiert, angestoßen und von der KI selbständig exekutiert werden. Die Gefahren, die ein unbedachtes Anwenden birgt, sind enorm. Gibt man der KI einen Auftrag, so führt sie diesen aus. Ohne Rücksicht auf Verluste, ohne Abschätzung von ungeahnten Konsequenzen.

Nicht zuletzt deshalb werden Stimmen gegen ein Wettrennen um diesen hoch lukrativen Markt der KI-Technologieführerschaft laut. Gerade Spezialisten für künstliche Intelligenz rufen nach der Kontrolle von generativer KI. So hat das von Max Tegmark gegründete Future of Life Institut in einem offenen Brief für eine 6-monatige Pausierung der Weiterentwicklung von KI plädiert, damit Regulierungen beschlossen werden können. Der am MIT forschende Physiker Tegmark berät unter anderem auch die EU und europäische Regierungen. Er bezeichnet KI als die wesentlichste Entwicklung der Menschheit, die Fähigkeiten von Large Language Modellen wie GPT4 vergleicht er in ihrer Relevanz sogar mit der Erfindung des Feuers. Dieser offene Brief wurde mittlerweile von mehr als 27.000 Menschen gezeichnet, darunter der Historiker Yuval Harari, Tristan Harris, Co-Founder des Center for Humane Technology, bekannt aus "The Social Dilemma" (Netflix) und "The AI Dilemma" (YouTube) der Neurowissenschafter und KI-Forscher Gary Marcus, Apple Mitgründer Steve Wozniak, Elon Musk und andere namhafte Protagonisten. Ziel dieses offenen Briefes ist es, den KI-Technologen durch öffentlichen Druck einen geregelten Ausweg aus dem rasanten Wettrennen um die Superintelligenz zu ermöglichen.

Altmann selbst, CEO von OpenAI, fordert in Interviews und auch in seiner Anhörung vor dem US Senat: die globale Gemeinschaft sei nun aufgerufen, ChatGPT & Co zu regulieren und allgemein gültige Richtlinien zu beschließen.

Das heißt also: es wurde eine Blackbox mit enormen Fähigkeiten und unberechenbarer Intelligenz in die freie Wildbahn entlassen und nun putzen sich die dafür Verantwortlichen ab, zeigen sich kollaborativ und hilfsbereit in Sachen ‘Einhalt gebieten’. 

Die pikanten Details am Rande: OpenAI betreibt aktuell eine Studie zum bedingungslosen Grundeinkommen. Also die Tatsache, dass GPT einen Paradigmenwechsel am Arbeitsmarkt auslösen wird, stand längst fest. OpenAI Präsident Greg Brockmann beschreibt das in seinem Ted-Talk so: “Wir verlieren nicht unsere Jobs, nur unsere Job-Beschreibung.” ... Gelebter Sarkasmus hinsichtlich der 10.000 Jobs, die kurz nach der Akquise von openAI alleine bei Microsoft gestrichen wurden (darunter auch der Ethik-Beirat).

Weiters sei erwähnt, dass CEO Altmann an WorldCoin beteiligt ist. WorldCoin, das gerade 100 Mio. $ neues Kapital erhalten hat, soll das neue Zahlungsmittel der Zukunft werden. Die Authentifizierung als echter Mensch erfolgt mittels Augenscanner. Es ist also bestens vorgesorgt: das bedingungslose Grundeinkommen für all die Menschen, die dank KI am Arbeitsmarkt übrig bleiben und eine neue Krypto-Währung mit Retina-Scan für all jene, die noch Geld haben. Der Minority-Report lässt grüßen.

Die Zukunftsforscherin Amy Webb macht in ihrem Trend Report 2023 deutlich: “Focus is all you need”. Der Einsatz von KI wird über alle Branchen hinweg für jedes Unternehmen nicht nur Thema werden, sondern sie prognostiziert, dass KI im Kern eines jeden Geschäftsmodells integriert sein wird. Sie nennt das assistive Jobs, also kein Arbeiten mehr ohne permanenten KI Support - weder im OP noch im Board-Meeting. “Sie werden nie mehr alleine denken.” ... so ihre Prognose. Dabei macht sie vehement auf das Datenproblem aufmerksam ...

Die Daten, mit denen KI Modelle trainiert werden, repräsentieren nicht nur zeitlose Literatur und erprobte Forschung, sie sind auch ein Abbild unserer mehr oder weniger dunklen Vergangenheit. Sie sind einseitig, voller Vorurteile gegen Frauen, Minderheiten und unterrepräsentierten Kulturen. Wer unreflektiert und unjustiert Daten nutzt, läuft Gefahr, die Fehler der Vergangenheit zu skalieren und Entscheidungen aufgrund von verzerrten Ergebnissen zu treffen.

Was bedeutet das nun konkret? Was gilt es jetzt zu tun? 

Auch wenn generative KI-Tools noch Kinderkrankheiten aufweisen, Halluzinieren und mit historischen, vorurteilsbehafteten Daten gefüttert sind, die kein guter Wegweiser für die Zukunft sein können: wir müssen uns spätestens jetzt mit KI vertraut machen. Angefangen bei einer kompletten Neuausrichtung von Bildung bis hin zu intensiven Up-Skilling Massnahmen in allen Unternehmensbereichen und für alle Arbeitnehmer:innen.

Firmen sind angehalten, ihre Geschäftsmodelle zu überdenken und strategisch anzupassen. Genau zu prüfen, wie sie KI einsetzen, wie sie ihre Kernkompetenzen mithilfe von KI aufwerten können. Dazu gehört auch ein klarer Plan, wie Mitarbeiter:innen fit gemacht werden, um ihre künftigen KI-assistierten Jobs auszuführen. Wer sich jetzt mit generativer KI vertraut macht, lernt diese auch kritisch zu hinterfragen, macht sich fit für eine Zukunft, die schon begonnen hat.

Als passionierte Digitale Ethikerin wünsche ich mir, dass wir diese Gelegenheit von enormer Rechenleistung und Zugang zu universalem Wissen für nachhaltig Gutes und nicht für einen kurzsichtigen “höher-schneller-weiter” Profit nutzen. 

Als Business Developerin sehe ich enormen Chancen, die es zu ergreifen gilt - für eine gerechte Gesellschaft, faire und bedachte Verteilung von Ressourcen und vor allem für Transparenz und den Erhalt von Privatheit und Autonomie.

Beim täglichen prompten mit ChatGPT, dem Bilder generieren mit Dall-e, Midjourney und Microsoft Designer, oder dem Erstellen von Präsentationen mit beautiful.AI oder gamma.app, ja sogar meinen eigenen ChatBot hab ich mir via Poe erstellt, um das Model Claude von Anthropic zu testen. Nach intensiver Beschäftigung und vielen Stunden des eigenen Testens von KI-Tools komme ich klar zu dem Schluss: 

Mit dem Prompten, also unseren Fragen und Anweisungen an KI, ist es wie in Bärbel Mohr's legendärem Buch “Briefe ans Universum” beschrieben:

Achte gut darauf, was Du Dir wünschst ... und (er-)kenne Deine Werte. 

Je besser und wertvoller die Frage, umso treffsicherer ist die Antwort. Kritisches Denken, Kontrolle der Ergebnisse und das laufende Überprüfen von eigenen Vorurteilen wird der Schlüssel zum sinnvollen Einsatz von KI.

Ich schick Euch gute Gedanken, freu mich auf kreative Ideen und wünsche uns allen ein Handeln aus vollem Herzen.

Eure Antiphonia, die Wechsel-Singerin

PS.: wenn ihr in Sachen KI auf dem Laufenden bleiben und gerne gemeinsam über 💎 wertvolle Anwendungen nachdenken wollt: folgt unserem Think Tank für Digitale Ethik auf LinkedIn!

*** handcrafted by a human ***

17 Ansichten0 Kommentare

Comments


bottom of page