Nachdem wir in der letzten Episode eher metaphysisch-philosophisch unterwegs waren, geht es heute zur harten Realität der Künstlichen Intelligenz:
In „Empire of AI“ verfolgt Karen Hao den Aufstieg von openAI, dem Unternehmen hinter ChatGPT. Die Autorin zeichnet ein umfassendes Bild von der Gründung bis zum Jahr 2025, porträtiert die involvierten Personen und zeigt den eindrücklichen Wandel von openAI von einem Non-Profit zu einem For-Profit-Unternehmen. Nebenbei streift sie bedenkenswerte Aspekte des aktuell vorherrschenden Entwicklungsprozesses von Künstlicher Intelligenz: Die Machtkonzentration, die Ideologie und schließlich die Ausbeutung natürlicher und menschlicher Ressourcen.
Shownotes
- Buch: „Was das Valley denken nennt“ von Adrian Daub
- Buch: „Blood over Bright Haven“ von M. L. Wang
- Buch: „Automaton“ von Berit Glanz
- ZZD 042: „Europa: Infrastrukturen der Externalisierung“ von Arch+ 239
- ZZD 060: „Chokepoint Capitalism“ von Rebecca Giblin und Cory Doctorow
- Blogpost: „Um handlungsfähig zu werden, müssen wir die Hoffnung aufgeben“ von Nils Müller
- Blogpost: „The LLMentalist Effect: how chat-based Large Language Models replicate the mechanisms of a psychic’s con“ von Baldur Bjarnason
- Artikel: „TechScape: How cheap, outsourced labour in Africa is shaping AI English“ von Alex Hern
- Artikel: „AI and the threat of “human extinction”: What are the tech-bros worried about? It’s not you and me“ von Émile P. Torres
- Podcast: „Die neuen Zwanziger – Salon“ vom August 2025
- Newsletter: „Ed Zitron’s Where’s Your Ed At“
Transkript (automatisch erstellt)
Nils: Hallo und herzlich willkommen zu Episode 98 von Zwischenzweideckeln, eurem Sachbuch-Podcast. Wir gehen jetzt mit großen Schritten auf die große hunderte Episode zu und fangen jetzt heute den dritten oder machen heute den dritten Teil unseres KI-Schwerpunkts. Und ich habe heute Amanda dabei. Hallo Amanda.
Amanda: Hallo.
Nils: Genau, du hast uns ein thematisch passendes Buch mitgebracht, zu dem wir dann auch gleich kommen. Aber erst mal die Frage, was treibt dich sonst gerade um?
Amanda: Ich habe vor zwei, drei Wochen ein paar Prüfungen abgeschlossen, meine Facharztprüfung unter anderem und sonst noch was Akademisches abgeschlossen. Und dann verfalle ich immer so in eine Phase, wo ich was lesen muss, was ich sonst nie lesen würde. Und dann habe ich mir so ein Buch geschnappt, was auch, ich muss zugeben, ein Dorn im Auge ist für meinen Partner. Das heißt Bauen und Verdichten und es geht um Asphaltstraßenbau. Und das habe ich letzte Woche gelesen. Ich fand das wirklich sehr interessant.
Nils: Das ist eine interessante Auswahl für ein Buch zur Erholung und Ablenkung.
Amanda: Ja, ich weiß jetzt Dinge, wie man, ich weiß jetzt, wie man eine Straße baut. So und was für Arten von Asphalt es gibt und was da die Vor- und Nachteile von sind. Und also ja, es war echt erholend.
Nils: Lag das bei euch im Wohnzimmer am Couchtisch rum?
Amanda: Ja, ich habe mir das mal gekauft und ich muss jetzt auch ein bisschen rechtfertigen, dass wir das noch immer haben, dass das bei uns im Regal steht. Und deswegen habe ich das jetzt einfach gelesen.
Nils: Okay, ja. Man lernt nie aus, ne?
Amanda: Genau. Bei dir?
Nils: Ja, ich habe tatsächlich, mich treibt so ein bisschen seit dem Urlaub so ein bisschen ein dunkler Blick auf die Welt eher um. So dieser Punkt, Klimakatastrophe und Co. Was ist, wenn wir das jetzt einfach verseppt haben? Was machen wir denn dann jetzt damit? Also ein bisschen dieser Gedanke, nicht zu sagen, was ist jetzt, wie können wir das noch verhindern? Sondern es wird jetzt auf irgendeine Art und Weise kommen. Was machen wir damit? Und habe da auch einen längeren Artikel auf meinem Blog zugeschrieben im Urlaub. Schaut da gerne mal vorbei, nilsmüller.info. Und habe jetzt, ohne das geplant zu haben, tatsächlich auch passenden Roman gelesen. Also wer das Ganze eher in Roman-Thema verpackt haben will, da gibt es von M.L. Wong einen Fantasy-Roman, Blood over Bright Haven. Der das auch so ein bisschen, so dieses Verdrängen, also hinter dem ganzen Kollaps-Gedanken steckt, so die Idee von der Verdrängung. Dass die Gesellschaft dieses Thema einfach verdrängt, davon nichts mehr hören will. Weil sie irgendwie damit nicht umgehen kann. Und das haben wir ja bei Corona auch irgendwie, ist so mein Gefühl. Da reden wir ja auch nicht mehr drüber. Wundern uns über die mysteriösen Krankheiten. Und bei Klima machen wir das Ganze halt auch so. Und das ist in dem Roman halt echt super aufgearbeitet. Macht Spaß zu lesen, ist aber der Stimmung vielleicht nicht unbedingt zuträglich.
Amanda: Okay, ja. Ja, das ist das Thema generell ja wohl nicht, leider.
Nils: Ja, ja. Gut, aber jetzt widmen wir uns wieder KI, auch so ein ganz entspanntes Thema, was alle Leute ganz nett finden und überhaupt keine Emotionen hervorruft. Du hast uns mitgebracht von Karen Howe, heißt sie meine ich genau, das Buch Empire of AI. Ist ein frisches Buch von Anfang des Jahres, gibt es auch noch nicht in der deutschen Übersetzung. Der Untertitel sagt wahrscheinlich schon viel über den Inhalt Dreams and Nightmares in Sam Altmans Open AI. Die Autorin ist eine Journalistin, gerade im Bereich KI, kommt mein Eindruck nach, aber auch eher aus der kritischen Schiene, vermute ich mal. Aber ich will dir nicht zu viel vorweggreifen, möchtest du mit dem TLDL anfangen? Klar.
Amanda: In Empire of AI verfolgt Karen Howe den Aufstieg von Open AI, dem Unternehmen hinter ChatGPT. Die Autorin zeichnet ein umfassendes Bild seit der Gründung bis zum Jahr 2025, porträtiert die involvierten Personen und zeigt den eindrücklichen Wandel von Open AI, von einem Non-Profit zu einem Full-Profit-Unternehmen. Nebenbei streift sie bemerkenswerte Aspekte des aktuell vorherrschenden Entwicklungsprozesses von künstlicher Intelligenz. Die Machtkonzentration, die Ideologie und auch die Ausbeutung natürlicher und menschlicher Ressourcen.
Nils: Ja, danke dir. Okay, dann ist, glaube ich, das Thema gesetzt. Nimm uns doch mal mit in die Entstehung und die Geschichte von Open AI.
Amanda: Das mache ich gerne. Das Buch ist ziemlich lang. Das ist 480 Seiten lang, wobei man auch sagen muss, die letzten 100 Seiten sind oder 50, 60 sind Index und Notizen, Endnotes. Die Autorin hat also wirklich extrem, extrem viele Quellen herbeigezogen. Also das ist fast schon ein historisches, wie sagt man, ein geschichtsschreiberisches Buch. Sie hat sehr viele Interviews geführt, sie hat sehr viele Quellen, sie hat sehr viele Reisen gemacht. Also in dem Sinne wirklich eine sehr umfassende Recherche zu diesem Thema. Das ist einerseits natürlich sehr interessant. Ich glaube, das hat auch einen gewissen Benefit längerfristig, wenn man dann zurückschaut irgendwann mal auf dieses Unternehmen. Ist aber ein bisschen anstrengend zu lesen, fand ich. Ich kann es nicht genau festmachen, an was das lag. Ich fand, das Thema ist interessant. Ich fand auch, die Sprache war eigentlich flüssig und trotzdem hat es extrem lange gedauert, bis ich durch das Buch durch war. Ich werde auch das Buch jetzt nicht so ganz von Kapitel zu Kapitel vorstellen. Sie macht so ein bisschen auch einen Spannungsbogen rein. Den werde ich weglassen. Aber ja, ich pickte einfach so ein bisschen die Themen raus, die ich dann auch besonders interessant fand. Beginnen tut sie mit einem Event, der stattgefunden hat, als Sam Altman vor zwei Jahren gefeuert wurde als CEO. Das ist so ihr Aufhänger. Sam Altman, das steht auch schon im Untertitel, ist, wie gesagt, der Gründer von OpenAI. Und das Unternehmen ist jetzt fast zehn Jahre alt und wurde zusammen von ihm mit Greg Brockman und Ilya Satzkever gegründet. So, das sind, ich habe jetzt die Namen mal gesagt. Ich werde da auch nicht mehr groß drauf eingehen, aber auch für euch, falls ihr euch das Buch, also falls ihr das lesen möchtet, es kommen extrem viele Namen vor von all diesen Tech-Guys und auch sonst Personen. Also man braucht da fast schon so einen Spickzettel nebenher, um sich da wieder bewusst zu werden, wie jetzt da genau was ist, mit welcher Intention und welchem, ich sage mal, Net-Worth im Hintergrund.
Nils: Und ich vermute, weil es sind tatsächlich fast alles Guys, ne?
Amanda: Also, ja, zum Großteil schon. Es gibt aber schon auch ein paar Frauen, die da rausstehen. Aber ja, also die Gründer auf jeden Fall, das sind Typen, die das, ich sage mal klassisch das Silicon Valley, ja, aus dieser Brutstätte auch so ein bisschen kommen. Und was, ich glaube, was mir nicht bewusst war, bevor ich das Buch gelesen habe, ist, dass Open AI wirklich als Non-Profit-Unternehmen gegründet wurde. Ganz initial war das, das war auch so ein bisschen klassisch, ne? Da gab es irgendwie, Sam Altman hat zum Dinner geladen irgendwo und dann sind da mal all diese Menschen zusammengekommen und haben sich da gefunden und haben über künstliche Intelligenz diskutiert. Und dann entstand da so dieses Start-up und initial auch mit Elon Musk. Also, der war da sehr, sehr involviert zu Beginn. Auch, weil Elon Musk wohl davor schon oft diese Angst geäußert hatte, ne, dass künstliche oder das AGI kommt, also Artificial General Intelligence, allgemeine künstliche Intelligenz. Vielleicht, das wäre so eine Art von künstlicher Intelligenz, die noch einen Schritt umfassender, ein umfassenderes Skillset hat, als das wir bisher kennen. Also, es ist wie so, kann eventuell selbstlernend sein, kann sich selber vermehren, je nachdem. Also, es gibt keine allgemeine Definition dafür, aber es ist auf jeden Fall eine Art von künstlicher Intelligenz, die nochmal eine Skala höher oder ich sag mal die höchste Skala betrifft, die es aber aktuell noch nicht gibt, ne? So, und das ist so ein bisschen, da komme ich auch später noch zu, das ist nur ein bisschen auch eine ideologische Frage, na, wie steht man zu dieser AGI? Und auf jeden Fall hat Musk wohl da auch sich schon Gedanken drüber zugemacht davor und fand dann die Idee sehr gut, dass man ein Unternehmen gründet mit dem Ziel eigentlich, das zu entwickeln, aber so, dass es halt der Menschheit nützt. Also, dass man das sicher entwickelt und dass man da auch viel Forschung dazu macht und so weiter. Das ist auch der Grund, warum Open AI, Open AI heißt, ne? Also, das Open steht nicht unbedingt dafür, dass man den Quellcode offenlegen soll, da sind sie dann ziemlich schnell von weggekommen, sondern das ist halt Open für alle, im Sinne von alle soll davon profitieren. Ja, das ist so der Beginn. Was, ich sag mal, ein ziemlich wichtiger Punkt ist, dass Musk dabei war, der hat das mitgesponsert und zwar mit einem Betrag von einer Milliarde Dollar. Och, Taschengeld. Und das fand ich auch so, ich hab das gelesen, ich war so, was? Also, das Unternehmen, Neugründung und dann kommt so eine Zahl ins Spiel, das ist wirklich Wahnsinn, ne?
Nils: Irre, ja.
Amanda: Und sie schreibt dann das auch so ein bisschen lakonisch, ne? Wie sie da besprochen haben, wie viel Funding sie zuerst brauchen und dann hätte wohl Musk gesagt, ja, wenn wir da nur mit 100 Millionen reingehen, dann werden wir da nicht ernst genommen und so. Komm, wir machen gleich eine Milliarde und ihr schaut mal, was ihr da kriegt an Funding und den Rest, den geb ich euch, so. Holy. Ja, genau, holy. Und ich finde, das zeigt schon so ein bisschen das ganze Setup, ne? Also, wenn man mit sowas reingeht, also, es gibt ja keine andere Branche in der Ökonomie, die sowas zustande bringt, ne? Also, mit einem Versprechen, das noch nicht existiert, gleich zu Beginn, ohne irgendetwas je geliefert zu haben, so viel Geld zu verdienen zu haben. Das ist wirklich krass. Ja, so hat das begonnen und eigentlich, wie gesagt, ich sag mal, sehr eine noble Einstellung zu der ganzen Sache und so haben sie dann auch die Talente ein bisschen akquiriert. Also, sie haben mit diesem Versprechen von Research, von Openness und so weiter, haben sie, ja, die Top Minds aus dem Silicon Valley ein bisschen angeheuert, haben denen dann natürlich auch sehr, sehr viel gezahlt. Weil die sind auch, die waren auch gefragt bei Google und bei Microsoft und so weiter und also denen auch so viel gezahlt, was natürlich überhaupt nicht üblich wäre für eine Non-Profit-Organisation. Aber so war, das war so, dass der erste Schritt auch so ein bisschen die Talente zu, ins Boot zu holen, ne? Ja. Das hat dann soweit so gut geklappt. Irgendwann kam es dann zur Frage, ob Altman und Musk, die hatten zuerst dann noch in anderen Unternehmen immer viel zu tun und wer dann CEO werden sollte von OpenAI. Und irgendwie gab es dann auch so schon so ein bisschen einen Zwist zwischen denen oder Musk wollte das, Altman wollte das und schließlich wurde es Altman und Musk ist dann da ausgeschieden und hat dann auch sein Geld gleich mitgenommen. Also, diese Milliarde war dann doch nicht mehr da.
Nils: Aber die brauchten sie dann auch offensichtlich nicht direkt.
Amanda: Die brauchen sie schon und die haben sie dann am Ende von Microsoft gekriegt. Ah, okay. Ja. Also, die sind dann da.
Nils: So sind die da reingekommen.
Amanda: Genau. Das ist auch eine ziemlich, das ist über lange Zeit eine ziemlich enge Verbandelung zwischen Microsoft und OpenAI. Also, Microsoft hatte wie das, das Recht auch auf die Nutzung der Technologie. Hat auch nicht nur Geld, sondern auch das ganze Computing Power zur Verfügung gestellt, die ganzen Server.
Nils: Und ich glaube auch zum reduzierten Preis oder sowas, ne? Da mal nicht irgendwas gelesen zu haben.
Amanda: Kann sein. Ich habe mir das nicht mehr so genau gemerkt. Also, auf jeden Fall waren die da ziemlich zusammen, haben die da zusammengespannt. Und zu Beginn war das natürlich super für OpenAI. Und irgendwann kam es auch fast so ein bisschen zu einem Kipppunkt, ne? Wo OpenAI plötzlich so groß war, dass es nicht mehr unbedingt von Microsoft abhängig war. Aber Microsoft war von OpenAI abhängig. Es hat dann so wieder ein bisschen eine andere Dynamik entfacht. Aber grundsätzlich war dann da das Geld und schon auch so ein bisschen der erste Moment von, ne? Ich verkaufe ein bisschen meine Seele als Non-Profit-Unternehmen und dann verkaufe ich mich halt einem Tech-Giganten. Ist auch so ein bisschen wohl der Spruch von AI-Forschenden. Entweder du verkaufst dich für Big Tech oder du gehst halt irgendwie in den Industrie-Militär-Komplex. Der kann dann staatlich sein, aber, naja, der Nutzen oder was dann damit erstellt wird, ist jetzt auch nicht unbedingt ethisch vielleicht gewünscht, ne?
Nils: Oder moralisch. So.
Amanda: Das war so schon der erste Punkt, ne? Also, jetzt Geld haben sie, sie haben die Compute-Power. Und dann ging’s auch dann ziemlich schnell daran, das mal zu nutzen. Und dann haben sie da ein bisschen rumgewurstelt, sag ich mal.
Nils: Okay, ja.
Amanda: Mit allem Möglichen. Da wurde ein bisschen mit Videogames und da ein bisschen künstliche Intelligenz probiert und eine Roboterhand. Und dann, ich glaub, war das DeepMind oder so. Irgendwann hat dann das AlphaGo geschlagen. Keine Ahnung. Also, das war nicht OpenAI, aber das war wie so der, ich sag mal, das Feld, ne? Jeder macht so ein bisschen was, aber niemand weiß eigentlich, wo man hin will. Niemand weiß, was AGI überhaupt ist. Ich glaube, bis heute. Aber da, das ist so wie das große Ziel. Und der Knack oder, ich sag mal, der Schlüsselmoment war dann, als OpenAI eigentlich auf dieses Sprachmodell sich zentriert hat. 2017, ich glaube, das wurde von Google, hat das veröffentlicht, kamen diese Transformer-Architektur, kamen da auf. Vielleicht für die Nicht-Techies unter unseren Hörenden. GPT, also das, was man auch aus Chat-GPT kennt, das steht für Generative Pre-Trained Transformer. Also Generative, Generativ heißt, es erstellt Inhalte, also das, in diesem Falle Text. Pre-Trained heißt, es wurde eben trainiert auf in der Regel sehr, sehr, sehr großen Datenmengen, kann dann wie auch im Nachhinein noch spezifisch für gewisse Tasks angepasst werden. Und das Transformer, das ist eben so eine Art von spezifischer Netzwerkstruktur oder Architektur für neuronale Netze, die einen Zusatznutzen gebracht hat, weil früher konnten diese Netze Dinge nur sequentiell bearbeiten. Und das Transformer-Modell kann das jetzt parallel. Und das hat dann insgesamt sehr viel Impact gehabt, weil man plötzlich mit längeren Kontexten umgehen konnte. Also wenn man zum Beispiel Daten genommen hat, Textdaten, die schneidet man in der Regel in kleine Stücke, dann hat man so Tokens. Und wenn die dann sequentiell verarbeitet werden, dann sind das nur ganz kleine Ausschnitte, die man sozusagen verarbeiten kann. Und mit den Transformer-Modellen konnte man plötzlich einen viel größeren Kontext erfassen. Und dann hat man natürlich auch viel mehr, ich sag mal, Bedeutung, die man da mitnimmt.
Nils: Die bieten auch, glaube ich, so eine Aufmerksamkeitslogik. Also die klassischen Modelle können ja immer nur quasi ein Wort nach das andere hängen. Und die können wirklich so Prioritäten im Grunde von Bedeutung und sowas dann auch verstehen. Und wissen halt, dass irgendwie ein nicht ganz so wichtig ist wie das Wort Apfelsaft, keine Ahnung.
Amanda: Genau. Das ist so ein bisschen das, ich sag mal, die technologische Neuerung. Und auf die hat man sich dann so ein bisschen gestürzt und dann eben seine ganze Idee eigentlich auf diese Sprachmodelle konzentriert. Und ich finde das interessant, weil das ist ja nicht unbedingt logisch. Also klar, es gibt Sprachphilosophie. Das ist auch ein Teil der Philosophie, wo man sagen kann, die Sprache ist, unsere Welt besteht aus Sprache oder ist Sprache. Das ist von dem her nicht ganz abwegig. Und trotzdem, dass man jetzt sagt, okay, diese allgemeine künstliche Intelligenz wird durch ein Sprachmodell entstehen, ist eine Art von Ideologie, die man aufgebaut hat und die man jetzt einfach verfolgt.
Nils: Ist natürlich bei dem KI-Thema so ein bisschen vorangelegt mit dem Turing-Test.
Amanda: Ja, stimmt.
Nils: Das ist ja immer so ein bisschen die Frage, wann ist ein Computer intelligent? Da gibt es ja diesen klassischen Turing-Test sozusagen, der ist dann intelligent, wenn jemand, der blind sozusagen mit dem Computer kommuniziert, nicht erkennt, dass er mit einem Computer kommuniziert. Beziehungsweise halt einen automatisierten, einen menschlichen Interaktionspartner nicht zufällig voneinander unterscheiden kann. Das legt ja auch schon diesen Sprachfokus so ein bisschen in der ganzen Branche irgendwie nahe.
Amanda: Absolut, das ist recht, ja. Das stimmt. Ich finde das trotzdem interessant, weil meines Erachtens, das beschreibt sie nur in einem Satz in dem Buch. Und ich finde das eigentlich eine zentrale Erkenntnis insgesamt, weil diese allgemeine künstliche Intelligenz bringt ja dieses Versprechen. Oder sie sagen, das wird die Menschheit verbessern oder das wird uns eben, das wird die Klimakrise lösen. Das wird den Hunger bekämpfen und so weiter. Und warum ein Sprachmodell das leisten können soll, ist mir ein Rätsel. Also das kann ja niemand begründen.
Nils: Ganz klar.
Amanda: Und deswegen finde ich das schon interessant, dass man dann sich so stark auf so etwas einschießt. Weil es gibt ganz viele andere Arten von künstlicher Intelligenz, die das vielleicht eher kann. Nicht allgemein, nicht alle Probleme, ein einziges Modell, aber sehr wohl irgendwie ein statistisches Modell, irgendeine Zeitreihenanalyse. Irgend so was, wo man halt ein Problem lösen könnte.
Nils: Ja, aber ich glaube, das ist genau der Gedanke in diesem AGI, weil Sprache, alles was wir Menschen irgendwie machen, machen wir irgendwie über Sprache. Und dann ist es natürlich auch naheliegend zu sagen, okay, dass auch so eine AGI über Sprache laufen muss, weil wie du gerade sagtest, wenn die halt besonders gut statistische Modelle rechnen kann, dann kann sie halt offensichtlich nicht eine Lösung für den Klimawandel schreiben. Oder eine Pressemitteilung für die Einführung eines neuen Solarparks, keine Ahnung. Also ich finde schon logisch, warum man da auf Sprache kommt. Aber wenn man genauer darüber nachdenkt, hast du natürlich völlig recht. So, hä? Warum?
Amanda: Genau. Ja. Wie auch immer. Das ist jetzt das, ich sage mal, das Credo, also dass diese Sprachmodelle das Nonplusultra sind auf diesem Gebiet. Und das bringt, abgesehen davon, dass der Nutzen ein bisschen fragwürdig ist, so, also nicht der konkrete Nutzen, den wir alle davon ziehen, sondern der Nutzen als AGI, meine ich jetzt, bringt das halt einfach extrem viele Nebenkosten mit sich. Ja. Die nicht nur die Computing Power sind, sondern alles andere. Wir kommen da noch später zu. Was auch inhärent ist von diesen Sprachmodellen, ist die Tatsache, dass sie extrem viele Daten brauchen. Auch das, andere Modelle brauchen das nicht unbedingt. Die werden nicht tendenziell besser, je mehr man da reinpackt. Bei diesen Large Language Models ist das auf jeden Fall so, zum gewissen Teil. Also bei Open AI war es so, dass die bis GPT-2 sehr gute, kroatierte Daten hatten. Also das ist auch unter AI Research ist das ganz klar. Oder ich arbeite ja auch in der Datenwelt, also das ist Shit-in, Shit-out, das ist ein ganz bekannten Spruch. Man, den Output einer Applikation, eines Modells steuerst du eigentlich damit, was du da reinpackst. Und bei GPT-2 waren das eben noch sehr, sehr gute Texte, gute, klar, strukturierte, kuratierte Datensätze. Und schon mit GPT-3 ist man davon weggekommen. Da hat man plötzlich alles, was man im Internet gefunden hat, da mitgenommen. Und das hat die Qualität massiv verschlechtert.
Nils: Verschlechtert? Dieses verschlechtert. Warum hat man es denn dann gemacht?
Amanda: Weil das eine Art auch von Ideologie war. Also da kommen wir jetzt zum, wenn ich sage verschlechtert, dann ist das natürlich auch ein Blick, den ich jetzt gewählt habe. Oder aus so einem bestimmten Blick, wenn man sagt verschlechtert. Insgesamt kann man schon sagen, sind die Modelle natürlich besser geworden. Also was die können schon, was der Output anbelangt oder was die Performance in gewisser, in einer Safety-Hinsicht anbietet, sind die schlechter geworden. Ich muss mich entschuldigen, dass ich da immer so viele englische Wörter brauche. Ich habe einfach das Buch auf Englisch gelesen und das, ich hoffe, ihr verzeiht mir das. Das ist nicht, genau. Also das ist so ein bisschen der Punkt mit dieser Daten, mit dem Datenscaling. Und warum ich das so sage, ist auch, dass es einfach wirklich wie eine Ideologie behandelt wurde. Es ist dieses zehnmal mehr. Und Sam Altman hat sich das offenbar irgendwie ins Hinten tätowiert, dass immer alles zehnmal mehr. Zehnmal mehr Geld, zehnmal mehr Compute-Power von einem zum nächsten, alles immer zehnmal mehr. Das hat er von irgendeinem anderen Startup-Guru, glaube ich. Und das hat wohl so funktioniert. Es war, ich glaube, auch sehr eindrücklich für die Forschenden zu sehen, dass das tatsächlich funktioniert hat. Je mehr Daten du da reingepackt hast, desto besser ist das Modell geworden. Das ist ja nicht unbedingt selbstverständlich. Problem war aber eben die Datenqualität. Und ich springe jetzt da hier vielleicht ab. Was das Problem damit war, war unter anderem, dass so viel Müll jetzt da drin war, dass auch plötzlich gefährliche Dinge da mit dabei waren und auch hinten rausgekommen sind. Also plötzlich kamen da ein Skandal von OpenAI, war das in einer gewissen Applikation, ich weiß nicht, ob es eine Applikation war. Sie haben das irgendwo ausgerollt, wo man das nutzen konnte. Und da wurde dann plötzlich sehr, sehr viel Synthetic Child Abuse Material produziert.
Nils: Okay, ja.
Amanda: So. Da hat wie niemand mit gerechnet, wohl in diesem Ausmaß. Das kam dann, ich glaube, auch für die Menschen in der Firma ein bisschen als Schock. Ja. Und da hat man gemerkt, na, da muss man was gegen machen. Und da gibt es natürlich ganz verschiedene Ansätze, wie man sowas stoppen kann. Man kann da wie, ich sage mal, einfach hinten einen Deckel drauf machen und einem Modell, bevor es was ausspuckt, sagen, ne, schau mal bitte, was da genau, was du da genau gesagt hast. Passt das oder solltest du das vielleicht eher nicht rausgeben? Was aber viel oder in einem ganz anderen Ausmaß passiert, ist Content Moderation auch von den Inhalten, die da reingehen. Oder dann halt, dass man im Nachhinein schaut, was kann das Modell, also wenn man das so promptet, was kommt da raus und dann Menschen müssen das wie kategorisieren und sagen, hey, das ist nicht adäquat und so weiter.
Nils: Das ist jetzt aber auf dem Output-Level, nicht auf dem Input.
Amanda: Genau, es gibt beides. Also ich sage mal, dieses Input-Moderation, das kennen wir ganz klassisch, wenn wir irgendwo auf einer Webseite sind und wir müssen angeben auf einem Bild, klicke alle an, die eine Ampel haben. Wir kennen das, das machen wir, das ist die Kategorisierung von Bildern für autonomes Fahren, damit das da erkennt wird. Das kannst du natürlich auch machen für Text oder du machst das gleiche halt auf dem Output. Also du hast wie schon, du lässt das Modell schon Text generieren und schaust dann, was kommt dabei raus. Und das Problem davon ist, dass diese Content-Moderation oder dieses, falsch, diese Data-Annotation, also die Annotierung von Daten, seien es jetzt Text oder Bilddaten, das machen Menschen. Und das machen nicht Menschen, die im Silicon Valley sitzen, sondern das machen Menschen, die im globalen Süden sitzen. Und das ist ein großer Punkt, den Karen Howe in ihrem Buch herausarbeitet, ist, wie Menschen da ausgebeutet werden. Und sie beschreibt da verschiedene Personen, einerseits in Venezuela, in Kolumbien, aber auch in Kenia, in Nigeria, die diese Arbeit machen. Und das funktioniert in der Regel so, dass, das sind natürlich dann wieder andere Firmen, man externalisiert das. Und diese Firmen haben dann meistens einfach einen Web-Auftritt und man kann sich da einloggen und dann kriegt man halt, wie so diese Tasks zugeschickt. Und dann arbeitet man die ab. Und dann hat man so einen Zähler oben, der sagt, pro Task, wie viel man hat oder wie viel man abgearbeitet hat. Und meistens kriegt man dann ein paar Cent für einen Task. Und das Problem ist natürlich, dass das A, sehr anonym ist. Also die Personen arbeiten nicht irgendwie, die sind nicht angestellt, die haben keinen richtigen Arbeitsvertrag, die haben keine Vertretung und so weiter. Und verdienen das Minimum, wenn überhaupt. Also es ist einfach halt, was die gerade zahlen möchten. Und wenn man in Not ist, dann nimmt man halt jede Arbeit, die man machen kann. Und so beschreibt sie auch, wie dann diese Firmen initial zum Beispiel in Venezuela waren, weil Venezuela war politisch sehr instabil zu dieser Zeit. Sehr, sehr, sehr hohe Inflation. Das heißt, alle haben sich natürlich auf irgendeine Fremdwährung gestürzt, wenn sie die kriegen konnten. Gleichzeitig sehr gute Internetabdeckung und eine nicht, eine gut ausgebildete Bevölkerung. Also das war wie so eine Goldgrube für Menschen, die diese Arbeit gemacht haben. Und so haben halt viele da dann für diese großen Firmen Daten annotiert, was grundsätzlich, und das fand ich noch interessant, dass bei vielen dieser Personen, die haben dann auch nicht gesagt, dass sie die Arbeit per se schlimm fanden, sondern tatsächlich, wie die organisiert ist. Also eben diese Anonymität. Und für gewisse waren dann auch so, also die haben dann zum Beispiel, sind nicht mehr rausgegangen, weil diese Tasks nicht mehr ständig reingekommen sind.
Nils: Oh.
Amanda: Also man hat dann die Website offen und dann kommt plötzlich so, ah, du hast hier einen Task und wenn du dir den nicht schnappst, dann kommt halt eine andere Person und nimmt den.
Nils: Ah, okay.
Amanda: Das heißt, eine Frau schildert dann, dass sie nur noch 30 Minuten pro Tag rausgegangen ist, auch in der Nacht, Computer immer offen gelassen, dass wenn in der Nacht ein Task kommt, dass man den abarbeitet. Und so sieht man schon, also die prekäre Art des Arbeitens ist wirklich schlimm, ne? Und das gleiche, irgendwie war dann in Venezuela, ich kann mich nicht mehr ganz erinnern, was der Grund war, aber aus irgendeinem Grund hat dann diese Firma gesagt, ja, jetzt passt es uns hier nicht mehr, packt dann, schaltet einfach die ganze Website für alle Menschen in Venezuela ab und geht nach Kenia und macht das gleiche dort. Also es ist wirklich, und das, hier spielt auch so ein bisschen wieder das rein, warum sie das Empire of AI nennt, ne? Also diese, diese, dieser kolonialistische Gedanke, na, ich gehe wohin, ich extrahiere da die, die Ressourcen, die ich kriege und wenn ich davon genug habe, dann lasse ich alles stehen und liegen und gehe zum Nächsten, wo ich was abbauen kann, ne? Ja, also es ist sehr eindrücklich, wie sie, wie sie das beschreibt. Das ist so ein bisschen das mit dem, mit dem Problem der Datenqualität, ne? Also das ist jetzt, ich sag mal, die, die, die harmlose Form ist eben, dass man einfach Daten, ja, beschreiben muss, was da rausgekommen ist und dann gab es natürlich eben, ich sag mal, je schlimmer der Content war, desto schlimmer auch die, die Bedingungen für die Menschen, die das moderieren mussten oder die das annotieren mussten. Also es gab dann irgendwann halt, konntest du entweder Gewalt oder halt sexualisierte Darstellungen und das ging dann also wirklich bis zu unvorstellbarer Grausamkeit, musste man sich das im Minutentakt da reinziehen. Das ist, ja, man kennt das auch ein bisschen von Facebook und von anderen Social Media Content Moderations und das machen ja oft Menschen auch in Südostasien oder, oder wo auch immer. Ja, ja, das ist so ein bisschen der Punkt von, von dieser menschlichen Arbeitskraft, die durch diese Modelle oder durch die Entwicklung solcher Modelle ausgebeutet wird und OpenAI hat dann noch weiter oder dieses Scaling, das, das geht immer, immer weiter. Und für GPT-4 hatten sie dann plötzlich eigentlich keine Daten mehr. Also das, da wurde schon alles gescrapt und, und reingezogen, was da vorhanden war. Das heißt, sie mussten jetzt irgendwie kreativ werden und, äh, haben sich dann, äh, YouTube, äh, vorgenommen.
Nils: Okay.
Amanda: Und haben dann Millionen von YouTube-Videos transkribiert und das als Input genommen.
Nils: Oh, ja, okay.
Amanda: Das ist eine juristische Grauzone und was ich noch interessant fand, ist, dass auch zum Beispiel Google selber, die haben ja auch ihre Modelle trainiert und, und Forschung dazu gemacht, durften das nicht. Also die mussten da ganz viele interne Schranken überwinden, damit sie jetzt da auf YouTube-Daten zugreifen konnten. Und OpenAI halt auch so in diesem, , Sinne von, wie geht das, äh, move fast and break things?
Nils: Ja, genau.
Amanda: So ein bisschen das, ne? Die, das, ja, haben das halt dann einfach so gemacht. Genau. Und so kam das halt dazu, dass OpenAI sich von Jahr zu Jahr von diesem Non-Profit-Gedanken immer mehr zu einem For-Profit, , gemausert hat. Ich denke mal nicht unbedingt nur aus Profit-Gier, tatsächlich auch, weil einfach dieses Scaling so viele Ressourcen benötigt, dass man halt da Geld für braucht, ne? Das kriegst du sonst nicht, da musst du irgendwo das Geld wieder reinholen oder du musst zumindest dann den Investoren und Investorinnen irgendwas zu bieten haben. Deswegen, denke ich mal, ist das so ein bisschen ein Sachzwang, der sie dazu gezwungen hat. Und trotzdem, ne, die ganze Dynamik ist dann auch ein bisschen ausgeartet. So war das. Interessant fand ich auch, wie sie geschildert hat, als sie Chat-GPT ausgerollt haben. So, man muss dazu sagen, GPT, das ist das Modell dahinter, ne? Das kann man durch eine API, das heißt durch eine Schnittstelle ansteuern oder konnte man früher, kann man immer noch. Und da muss man so ein bisschen, ganz wenig Technik für können, ne? Oder man muss eine Applikation haben, die das kann. Und mit Chat-GPT, das kennen die meisten von uns, das ist halt ein Chat-Interface, wo man was reingebt und kriegt, kriegt dann eine Antwort. Und als sie das ausgerollt haben, wurden die komplett, komplett überrannt.
Nils: Ja.
Amanda: Die hatten da nicht mit gerechnet. Alle ihre Server down, ne? Also die haben da wirklich, also die waren komplett im Seich, im Aufschwitzel-Deatsseit. Also die haben echt, die wussten nicht mehr wohin mit ihrer Kapazität. Und das Interessante daran ist, dass man, sie behaupten ja, dass sie nach, dass sie AGI bauen wollen. Und dann oft kommen die dann auch mit irgendwelchen Wahrscheinlichkeiten, dass sie so und so wahrscheinlich, dass wir das in diesem und diesem Jahr bauen werden. Und dann sowas Banales wie Chat-GPT, konnten sie nicht vorhersehen, was das für ein Erfolg sein würde für die Menschen. Ist so ein bisschen, okay, also die, ich sag mal, die Prognosefähigkeit dieser Firma stellt das so ein bisschen in Frage. Und ja, mit Chat-GPT kam dann eben auch, ich sag mal schon so, der allgemeine Bekanntheitsgrad und ab dann sind auch die Kosten explodiert. Also irgendwie Schätzungen sagen, dass sie pro Tag nur für die Compute-Kosten sind das 700.000 Dollar pro Tag, die das kostet seit Chat-GPT.
Nils: Da kenne ich, glaube ich, sogar größere Zahlen schon mittlerweile, aber ja.
Amanda: Okay, ja, ja, kann sein.
Nils: Aber wahrscheinlich stand vor einem Jahr, wenn das Buch geschrieben wurde und das wird ja nicht weniger.
Amanda: Ja, ja. Ich glaube, die Zahl bezog sich auch auf einfach dann, nachdem Chat-GPT gelauncht wurde. Das ist jetzt nicht, das ist jetzt auch schon ein bisschen herzett. Ja, ist nicht weniger geworden. Nee, bestimmt nicht. Das ist so ein bisschen die Geschichte mit diesem immer Scaling und immer mehr. Open AI hat auch, wie gesagt, ein paar Skandale dann gehabt. Einerseits eben diese, naja, diese ganze Geschichte mit irgendwelchen Child-Sex-Abuse-Material. Dann gab es eine Geschichte, wo die Mitarbeitenden, die die Firma verlassen haben, die mussten wohl ein Non-Disparagement-Agreement unterschreiben. Das ist ein, wie sagen wir das, nicht Verunglimpfungs-
Nils: Okay.
Amanda: Genau, also, dass du nicht schlecht über die Firma sprechen darfst, wenn du sie verlässt.
Nils: Okay.
Amanda: Weil wenn du es tust, dann hast du kein, darfst du deine Aktien oder deine Equity in der Firma, darfst du die nicht mehr verkaufen oder die wird dir dann weggenommen. Ist wohl sehr ein No-Go eigentlich in dieser ganzen Start-Up-Welt und wurde entsprechend dann auch als Riesenskandal angesehen, dass man das überhaupt so macht. Und zu Recht auch, weil wenn sich eine Firma auf eine wohlwollende Technologie einschießt, die sie entwickeln möchte, dann muss sie natürlich auch kritisierbar bleiben und sein. Sei es von Mitarbeitenden oder sonst wem. Deswegen ist das natürlich ein absolutes, das geht nicht. Und andere Skandale waren dann eben mit Altman, der dann gefeuert wurde. Also da haben, der Grund war wohl, dass der sehr manipulativ war. Der hat sehr oft die Dinge verdreht, die Personen ihm gesagt haben, Dinge verschwiegen und so weiter, sodass dieses Board, also Open Air hat wie ein unabhängiges Board, das eigentlich auch diese Mission überwachen soll. Und man hat sich da zu Beginn auch immer mitgerühmt, dass man eben auch den CEO feuern kann, wenn das nötig ist, wenn der jetzt plötzlich diese Mission gefährdet. Und dieses Board hat dann eben entschlossen, dass man auf einen feuern muss und plötzlich, also das war dann auch irgendwie ein riesen Tumult. Und nach ein paar Tagen sind dann gewisse Board-Member plötzlich wieder umgekippt und wollten ihn dann doch wieder zurück. Und nach einer Woche war er dann wieder da. Ja, hat dann das Ganze nicht unbedingt stabiler gemacht, hat dann auch gewisse Personen, ich sag mal, aus der Firma rausgetrieben, die sehr maßgeblich dafür verantwortlich waren. Unter anderem ist die ganze Safety-Abteilung, diese Sicherheitsabteilung immer, immer weiter geschrumpft. Also Open Air hat immer schneller Dinge veröffentlicht, diese Vorsichtsmaßnahmen oder Kontrollmechanismen, die man in der Regel hat, bevor man irgendetwas, ich sag mal, auf die Allgemeinheit loslässt, die wurden immer weiter abgebaut und immer weiter vernachlässigt. Und ein weiterer Skandal, der dann vor letztes Jahr, war das, entstanden ist, dass es als Open Air ein Sprachassistent oder eine Assistentin rausgebracht hat und diese Stimme eigentlich von Scarlett Johansson gerne gehabt hätte wohl. Sam Altman war wohl sehr Fan von diesem Film Her, wo Scarlett Johansson eben so eine künstliche Intelligenz vertont. Sie hat dann das aber abgelehnt und dann haben sie am Schluss irgendeine andere Stimme genommen, die aber sehr, sehr ähnlich klingt und das war dann auch so ein bisschen Skandal, der auch sagt…
Nils: Ich finde dieses, also Her ist ja wirklich ein verstörender Film. Ich weiß nicht, ob du ihn gesehen hast, ich habe ihn damals im Kino gesehen. Das ist ein extrem guter, aber verstörender Film und es gibt immer so diese Geschichte, die Science Fiction schreibt Geschichten darüber, wie der Torment Nexus die Welt zerstören wird und der Silicon Valley sagt, Oh ja, lasst uns eine Torment Nexus bauen. Die missverstehen die Warnung als Anleitung. Absolut.
Amanda: Genau so ist es, so ist es mit Her und so ist es wohl auch, also Altman muss wohl auch ein Wahnsinns-Fan von diesem Manhattan Project gewesen sein, Fan im Sinne von auch der Film Oppenheimer, der ist auch jetzt noch nicht so alt. Die haben dann auch immer zusammen geschaut und auch da, also sie sehen wie so die Gefahr, aber das wollen das um jeden Preis bauen und vergessen dann, dass auch diese Oppenheimer, der die zweite Hälfte seines Lebens eigentlich damit gehadert hat, dass er das überhaupt ermöglicht hat. Das wird dann wie ausgeblendet.
Nils: Aber es ist ja in dem Film, kommt es ja eigentlich sogar rüber, also das thematisiert das Jose da, es geht um nichts anderes in diesem Film. Ich weiß nicht, wie man den gucken kann und irgendwie mit einer Verherrlichung da rauskommt.
Amanda: Ich weiß nicht, auf jeden Fall haben sie das geschafft.
Nils: Man könnte jetzt, könnte jetzt kätzerisch sagen, spricht nicht für ihre Intelligenz.
Amanda: Naja, also ich, es ist schon, ja, wenn man, ich sag mal dieses, das Buch wird zum Teil auch sehr persönlich, im Sinne von, es porträtiert auch diese Personen sehr intim. Okay. Zu Sam Altman auch, ich finde es ein bisschen schwierig, das zu, ihnen zu fassen, so wie sie beschreibt, er sei wohl ein sehr guter Zuhörer auch, er konnte sehr, sehr viele Menschen auf seine Seite ziehen. Das kann man natürlich als manipulativ betrachten, das kann man aber auch, ich sag mal, also das kann einfach auch eine gute Charaktereigenschaft sein, dass man es schafft. Deswegen, es ist ein bisschen schwierig. Es kommt dann auch eine Geschichte mit seiner Schwester da mit rein, die ist wohl ein bisschen, ich sag mal, auf die schiefe Bahn geraten in ihrem Leben, musste dann auch Sexarbeit machen. Und das ist halt so ein bisschen schräg, weil Sam Altman natürlich extrem viel Geld gehabt hätte, um sie zu unterstützen. Also sie musste das machen, weil sie einfach prekär in einer prekären Lebenssituation war. Und es wird aber auch, und das finde ich, macht die Journalistin gut, die Autorin, sie macht das sehr differenziert. Sie sagt jetzt nicht, man hätte und so und so, sondern sie sagt, das ist halt wie nicht ganz klar. Also diese Schwester hat wohl eine sehr schwierige Geschichte. Sie klagt Sam Altman danach an und sagt, dass er sie sexuell belästigt hätte, als sie ein kleines Kind gewesen ist. Also es kommen danach wie solche Dinge da vor. Und es ist einfach schwierig zu durchblicken. Also ich will mir da jetzt nicht anmaßen, da irgendwas zu sagen zu können. Das sind schwierige Situationen und die Familie scheint das argumentiert so, dass sie eben der Schwester immer wollte, dass sie auf eigenen Beinen stehen kann. Also nicht die einfach Geld so geben. Und gleichzeitig, ja, klingt das natürlich trotzdem seltsam, wenn dann, ja, ich weiß nicht genau, wie das ist. Ich finde es auch ein bisschen, ja, ich habe das jetzt gelesen, aber ich würde mich da immer so ein bisschen abgrenzen von dieser persönlichen Sicht auf diese Menschen.
Nils: Vor allem auf die nicht so richtig Beteiligten.
Amanda: Ja, genau. Ja, das ist so ein bisschen zur Geschichte von Open AI. Jetzt die Ideologie dahinter ist, haben wir ja schon gesagt, das ist dieses ein bisschen der, fast schon der moralische Imperativ. Diese AGI zu entwickeln, mit dem Gedanken, dass diese AGI der Menschheit auch hilft. Und was sich da, ich glaube, das hast du auch im ersten Podcast der Serie erwähnt, ist es mit Boomers and Doomers.
Nils: Ja.
Amanda: Bin ich mir sicher.
Nils: Ja, ja.
Amanda: Genau, also es gibt dann wie so, ich sage mal, die Personen, die das möchten, dass das entsteht, teilen sich dann so in die zwei Lager. Ja, die Boomers sehen diese allgemeine künstliche Intelligenz als ein bisschen das Heilsversprechen an, der eben Wohlstand für alle und löst alle Probleme. Und die Doomers sind halt so ein bisschen, sehen das Risiko. Ja. Auch, dass diese KI potenziell die Menschheit auslöschen kann.
Nils: Aber wollen tun sie so trotzdem. Also das ist immer das Spannende dabei.
Amanda: Ja, ja, ja. Genau. Also diese Boomers und Doomers, die konzentrieren sich dann auch immer in diesen, ich sage mal, in diesen Firmen und Unternehmen, die AI entwickeln. Also das, sie wollen das beide, aber die einen sehen halt das ein bisschen pessimistischer oder sagen, man muss das auch irgendwie kontrollieren. Und eine Form, die dann sehr prominent wurde, ist, dass man in dieser Ideologie von Effective Altruism, ich weiß nicht, ob du, ja, das ist auch so ein Silicon Valley, wurde da ein bisschen geboren. Eine Art von, eine Bewegung, sage ich mal, die eigentlich altruistisch sein soll, aber, oder ist, im Sinne von, dass man versucht, das größtmögliche Wohl für alle zu erreichen. Es klingt eigentlich sehr utilitaristisch, meiner Meinung nach. Was, ich denke, der Unterschied ist, dass es sich eben auch auf Dinge bezieht, die halt im Moment noch nicht konkret sind. Also sie argumentieren dann mit diesem Expected Value, das ist so ein Konzept, das besagt, wie wahrscheinlich ist etwas, die Eintretungswahrscheinlichkeit eines Events und sozusagen der Effekt, den der Event hat, also ist das positiv oder negativ.
Nils: Ja, Erwartungswert.
Amanda: Und wenn man das, Erwartungswert, genau, wenn man das multipliziert und je höher, desto, ich sage mal, desto dringender ist das. Und eines dieser Probleme, die dann von diesem Effective Altruism erkannt wurde, ist eben diese Rogue AI, also diese bösartige künstliche Intelligenz, die dann die Menschheit zerstört. Und die muss man dann eben möglichst verhindern. Und da wurden Millionen, also Millionen von Dollars dann gespendet, um eben diese AI zu verhindern. Es ist so ein bisschen, ich finde das ein sehr zweischneidiges Schwert. Ich finde, wenn man dieses, grundsätzlich dieses Effective Altruism finde ich nicht so schlecht. Auch die Idee, dass man Geld so spendet, dass es auch einen großen Nutzen am Schluss bringt und nicht einfach, wo man gerade Lust hat, sage ich mal. Oder was einem sympathisch ist, das verstehe ich irgendwo noch.
Nils: Ja, das klingt erstmal sehr rational, vernünftig.
Amanda: Und gleichzeitig ist es, wenn man das sich dann weiterdenkt, also ein Imperativ ist dann ja, möglichst viel Geld zu verdienen, weil man ja auch möglichst viel Geld spenden kann. Das klingt halt einfach so ein bisschen eine Absolution für das ganze Silicon Valley Mindset. Also ja, ich mache mal alles kaputt und fülle mir die Taschen und dann kann ich es ja immer noch im Nachhinein für einen guten Zweck ausgeben.
Nils: Ja, da steckt ja auch noch dieser Gedanke hinter, du hast das gerade schon angedeutet, ich wollte es noch mal ein kleines bisschen deutlicher machen, dass es sozusagen nicht um uns jetzt primär geht, sondern um die Billionen von Menschen, die es in Zukunft irgendwann geben wird, wenn wir das komplette Universum besiedelt haben. Genau. So, und für die müssen wir dann das Gute wollen, wenn ich diesen Erwartungswert berechne, das ist vielleicht nicht wahrscheinlich, dass das passiert, aber es sind so unendlich viele Leute, dass das dann unser jetziges Wohl irgendwie übersteigt. Und ob da jetzt irgendwie 10.000, 100.000 Menschen im globalen Süden Hungers sterben oder ausgebeutet werden dafür, das spielt dann eigentlich keine Rolle.
Amanda: Genau. Ja, es ist schon absurd, wenn man sich so durchdenkt. Ja, diese, ich sag mal, diese Angstmacherei, die hat sich dann auch sehr ins Politische gezogen, also diese ganzen Tech-Menschen haben wohl sehr viel Einfluss auch auf Policymaking. Jetzt nicht nur, also sie beschreibt das ein bisschen in den USA, wie das da zustande gekommen ist, aber es ist wohl dann auch schon auf die EU übergeschwappt. Ein Narrativ ist immer so die Angst vor China, wir müssen das schaffen, bevor China das macht. Aber auch so gewisse Argumente wurden dann übernommen, die gar nicht unbedingt Sinn machen. Also beispielsweise werden, wird dann so die Art von gefährlicher AI wurde dann quantifiziert mit 10 hoch 26 Flops. Ein Flop ist ein Floating Point Operation, das ist einfach eine Maßeinheit, wie man die Rechenleistung quantifizieren kann. Und 10 hoch 26, das ist eine riesige Zahl, die aber komplett arbiträr ist. Ja. Ein bisschen, nicht komplett natürlich, aber irgendwie schon so. Die EU hat dann das ein bisschen restriktiver gemacht, hat dann 10 hoch 25 Flops genommen. Und das ist wie so, das wirkt so ein bisschen verzweifelt, weil ich sage mal, Personen, die sich damit auskennen, sagen danach, ja, das hat überhaupt keinen Zusammenhang mit dem Risiko. Die Rechenleistung per se ist nicht, das korreliert nicht per se mit dem Risiko. Das heißt, einfach eine Zahl zu nehmen, weil man so verzweifelt irgendeine, ich sage mal, eine Regulation aufbauen muss, das wirkt so ein bisschen, ja, es ist einfach nicht professionell.
Nils: Ja.
Amanda: Das ist irgendwie, zeigt auch ein bisschen den Einfluss, den diese Tech-Leute haben, weil die Zahl stammt ursprünglich von ihnen. Das wurde einfach eins zu eins übernommen.
Nils: Klar, weil das sind ja die Experten, die haben ja Ahnung.
Amanda: Genau, genau. Ja, und da wird natürlich auch sehr viel Lobbying gemacht und ich habe jetzt erst kürzlich, habe ich ein Video gesehen, wie diese Leute da bei Trump am Tisch sitzen und irgendwie da ihm einfach so sich anbiedern. Und er sitzt da und wartet, bis da jeder dieser Typen da gesagt hat, wie toll, dass er ist und wie glücklich, dass er ist jetzt da unter seiner Präsidentschaft weiter.
Nils: Da gab es doch auch diese Szene, wo irgendwie Trump gefragt hat oder ich weiß nicht mehr genau, auf jeden Fall sagte Zuckerberg, wie viel Geld sie jetzt in Zukunft irgendwie investieren wollen. Ich weiß nicht, ob das KI war. Und er sagte dann irgendwie 600 Milliarden Dollar oder was das war, also auch eine unendlich absurde Summe. Und dann war das Mikrofon noch an, als er dann irgendwie ins Gespräch mit Trump ging und dann sagte Zuckerberg zu Trump halt, ja, ich wusste nicht, welche Zahl du hören wolltest, so ungefähr.
Amanda: Oh mein Gott. Ja. Also es ist auch, man muss auch sagen, wenn man diese Zahlen liest, ich kann die auch nicht in ein Verhältnis setzen. Ich verstehe auch gar nicht mehr das Ausmaß von diesen Skalen. Ich finde das sehr schwierig.
Nils: Ja.
Amanda: Jetzt das letzte, der letzte Punkt, den ich noch machen möchte, ist ein Thema, das sie schneidet, ist der Ressourcenverbrauch von natürlichen Ressourcen. Also sie beschreibt, wie diese großen Server Farmen von diesen Hyperscalers, also das sind, ich sag mal, das sind wirklich Fußballfelder voll Gebäuden, die einfach vollgepackt sind mit Rechenpower. Und Servern, ja. Und Servern, genau. Und das braucht natürlich extrem viele Ressourcen, das überhaupt zu bauen. Also so Chips, die brauchen Silizium, die brauchen aber auch viel Kupfer zum Beispiel. Kupfer wird in Chile abgebaut, die brauchen viel Lithium, Lithium wird auch in Chile abgebaut. Deswegen porträtiert sie da auch in Chile einerseits ein paar Menschen, die damit zu tun haben. Diese Server Farmen brauchen aber auch Land und Energie und vor allen Dingen auch Wasser. Und deswegen sind diese Firmen auch immer auf der Suche nach Orten, wo sie das finden, zu möglichst günstigen Preisen und möglichst ohne eine Bevölkerung, die da aufmuckt. Und so porträtiert sie das, wie das in Chile und in Uruguay wohl der Fall war, wie die da hingekommen sind und das bauen wollten und sich dann auch die Menschen gewehrt haben. Und beispielsweise ist es auch so, dass der Energieverbrauch, der wird nie quantifiziert richtig. Und das wird dann so als Geschäftsgeheimnis gehandhabt. Das gleiche übrigens mit dem Wasserverbrauch. Und beim Energieverbrauch, das ist so ein generelles Problem. Und das sagt auch Timnit Gebru, das ist eine Forschende, eine Forscherin, die, ich glaube sie war bei Google.
Nils: Ich meine auch, ja.
Amanda: Und hat dort auch die Forschungsabteilung geleitet. Und früher war das wohl so, dass man sehr offen auch Forschung gemacht hat und publizieren konnte und durfte, ohne da, dass man, wie sagt man, geschweigt, verschweigt, zum Schweigen gebracht wurde.
Nils: Ja, genau. Verschliegenheit war das andere Wort wahrscheinlich, was du besucht hast.
Amanda: Ja, ja, nee, ohne dass sie da plötzlich nicht mehr das machen durften, weil aus irgendeinem Grund. Und sie sagt auch, es sei sehr, sehr schwierig, da zu Zahlen zu kommen, weil egal, wie man anschreibt, die geben das nicht preis. Sagt natürlich schon ein bisschen was darüber aus, dass sie wahrscheinlich was zu verheimlichen haben. Und das macht das Ganze aber sehr schwierig, weil man es eben nicht so gut quantifizieren kann. Und beim Wasser ist es wohl ähnlich. Und ich weiß nicht, ich glaube in Uruguay war es so, dass man, dass dann die Bevölkerung sich wirklich so dagegen gewehrt hat und sie auch dann der Regierung gesagt hat, sie müssen das offenlegen. Das kann nicht sein, dass das unter Verschwiegenheit gehalten wird, bevor das gebaut wird. Und dann hat sich herausgestellt, dass sie tausend, dass das Zentrum, also dieses Serverzentrum tausendmal mehr Wasser gebraucht hätte, als das ganze, die ganze Stadt oder das ganze Dorf, wo es gebraucht wird, pro Jahr. Also stell dir das mal vor, wenn du, und diese, diese Server, die brauchen Trinkwasser. Ja, ja. Das ist, das war den, das war den Menschen nicht bewusst davor, ne. Also das, das, die, wegen der, wegen dem Reinhardtsgrad, das darf dann auch nicht verstopfen und so weiter. Das muss gute Qualität von Wasser sein. Und in einem Ausmaß, das, wie sollst du das denn zur Verfügung stellen, ne. Und sie beschreibt dann das auch, dass das eben auch in Ländern war, die dann sehr von Trockenheit betroffen waren und so weiter. Und das ist natürlich, also das ist komplett gegen, gegen den Willen der Bevölkerung ist, dass da sowas gebaut wird. Und auch dort, ich finde, die, die Menschen oder die Aussagen sind dann erstaunlich, , rekonziliant eigentlich, ne. Also die sagen irgendwie, ja, das Problem ist gar nicht unbedingt das, aber wir kriegen halt gar nichts zurück. Also sie bauen das, sie verbrauchen die Ressourcen, sie schaffen keine Arbeitsplätze, ne. Solche großen Zentren schaffen sehr, sehr wenige Arbeitsplätze. Auch die, die ausgeschrieben wurden, waren dann zum Beispiel auf Englisch ausgeschrieben, also nur Personen, die Englisch konnten. Ja. Ja, steht aber in einem Land, das Spanisch spricht. , und das sei halt wie, ja, sei das große Problem, ne. Und dann kommen sie mit irgendwelchen Kompensationen, Google hat dann irgendwo einen Park gebaut, äh, an einer Stelle, wo niemand je hinkommt.
Nils: Ja, super.
Amanda: , und also die, Karen Howe ist dann den auch anschauen gegangen, da hat gesagt, da standen zwei vertrocknete Bäume und es ist wie so.
Nils: Ein Park.
Amanda: Genau, die Leute wollen keinen Park, ne. Die wollen halt was anderes, wenn man, wenn man.
Nils: Wasser trinken, wäre besser.
Amanda: Korrekt. Ja, , und auch da natürlich, also warum das zustande kommt, ist natürlich, dass die, die Regierungen sind ein Stück weit auch gezwungen, solche Deals anzunehmen, weil es extrem viel Geld bringt.
Nils: Mhm.
Amanda: , und dann haben wir auch wieder die, ich sag mal, die gängige Praxis, , dass man halt den globalen Süden in dieser Hinsicht ausnutzt, , weil man, weil man kann.
Nils: Ja.
Amanda: Ja, das ist so ein bisschen, sind so die, die Hauptpunkte, , zum Schluss, ich find’s schon spannend, oder? Ich, , beim Lesen war mir das nicht ganz so bewusst, warum sie das Empire of AI nennt, aber wenn man sich so ein bisschen Hauptcharakteristika von einem Imperium rauspickt, dann passt das schon ganz gut, ne.
Nils: Ja. Ja.
Amanda: Also, diese Expansion, , auch die Machtkonzentration, also man will ja ein Monopol eigentlich bauen.
Nils: Ja.
Amanda: , sagt auch dann irgendwo, ist ein, ich glaub, ein Zitat von Peter Thiel, das ist auch so ein, ein Tech-Guy.
Nils: Ja.
Amanda: Der sagt, ne, diese ständige Innovation, wenn du was machst und ein anderes Unternehmen macht Innovation in dem gleichen Bereich, das hilft zwar der Bevölkerung oder der Gesellschaft, das hilft dir aber nicht als Unternehmen.
Nils: Ja.
Amanda: , ja, macht Sinn, ne, aber ist halt die Frage, was man, was man gerne hätte. Ja, und auch die ganze, diese Ideologie dahinter und auch diese kulturelle Hegemonie, ne, diese Sprachmodelle, da ist ein, ein einstelliger Prozentsatz vom Input ist nicht englisch. Ja. , und so weiter. Also, das, es passt gar nicht so schlecht, dieser Titel Empire of, of AI.
Nils: Okay.
Amanda: Ja. Was denkst du dazu?
Nils: Bist du, bist du durch sozusagen? Ich bin durch. Du bist durch, auf allen Ebenen. Ja, danke für die, äh, dafür, dass du uns das, äh, das Buch vorgestellt hast. , noch eine weitere spannende Perspektive, glaube ich, auf, äh, auf das Thema KI, jetzt auch so im Rahmen unserer Reihe, ne, letzte Episode, äh, von Holgers Buch, äh, Live 3.0, oder was Holger vorgestellt hat. Das war ja eher so ein bisschen philosophisch, äh, sehr Meta. Und ich glaube, jetzt gucken wir einmal, haben wir einmal so reingeguckt in die, in die dreckige Realität sozusagen. Das finde ich immer einen schönen, schönen Kontrast. Danke dir dafür. , ich hab jetzt thematisch gar nicht so viel zu ergänzen. Ich kann halt noch so ein paar, paar Lesetipps, äh, dazu geben. Ich bin ja in dem Thema schon, schon so ein bisschen drin. , als Episoden jetzt aus, also abgesehen jetzt von den anderen beiden KI-Episoden oder auch von dem, äh, was ist das? The Eyes of Our Master von, , Pasquinelli. Ich glaube, es war Episode 88. Da habe ich jetzt vor allen Dingen zwei nochmal rausgepickt, die, glaube ich, nochmal ganz guten Kontrast geben, oder Kontext geben. Dieses Thema, , Imperialismus, äh, Ausbeutung des globalen Südens. Da haben wir ja die Episode, ich weiß jetzt nicht, welches es ist, ich glaube, es ist 42, , zu Afrika-Infrastrukturen der Externalisierung, äh, wo ich dieses, das Sonderheft sozusagen von dem Architekturmagazin vorgestellt hab. , da muss ich dran denken, wo das einfach auch nochmal historisch eingeordnet wird, genau dieses, diese Entwicklung quasi, , die wir als, als globaler Nord, da ist es jetzt primär Europa, aber das lässt sich ja ausweiten, , eben gerade mit, mit Afrika jetzt im Speziellen. Aber warum sollte sich das nicht auch auf, äh, auf Mittel- und Südamerika übertragen lassen, vom, vom Argument her haben. Und die zweite Episode, habe ich gerade nun mal auch nicht im Kopf, ist von Corridor Road Chokepoint Capitalism. Da musste ich jetzt ganz am Ende dran denken, wo du sagst, ja, es ist halt dann im Endeffekt auch ein Wettbewerb zwischen den Unternehmen. Das ist ein marktlicher Wettbewerb. Es geht nicht darum, irgendwie die Gesellschaft besser zu machen, , sondern es geht darum, das Unternehmen abzusichern. Und da haben gerade in, in der Tech-Branche gibt’s halt diese, diese Strategie des, des Chokepoints quasi, also zu sagen, , ich hab einfach, mein, mein Monopol ist so groß und so gefestigt, dass mir einfach keiner was kann. Und dann ist mir auch sämtliche Regulierung egal, dann finde ich Regulierung sogar gut, weil ich hab die Ressourcen, die zu bedienen und die abzu, und das zu bezahlen. Irgendwelche Startups, die was Neues versuchen in meiner Branche, aber nicht. Und die muss ich mir also schon mal keine Gedanken mehr machen. Also das fand ich auch nochmal einen ganz, ganz spannenden Punkt. Also hier so zwei, äh, Seit, Seitwege sozusagen, die ich hier auf jeden Fall noch, noch reingeben möchte. , dann haben wir einige Sachen zum Thema, du hast es angesprochen, dieser Ideologie, da gibt’s ja dieses kürze Tescreal, das hab ich wahrscheinlich in meiner Episode, , zu, äh, wie hieß das Buch, äh, der Icon auch schon erwähnt. , da geht’s genau um diese, eine Effective Altruism-Ideologie, die irgendwie so einen ganz perfiden, rationalistischen Blick auf die Welt hat, wo man auch so das Gefühl hat, die sehen eigentlich so den biologischen Menschen, der wir jetzt sind, nur so als Zwischenstation auf dem Weg zu irgendwelchen Cyborgs. Oder zu irgendwelchen künstlichen Intelligenzen, die dann die Weiten des Raumes, äh, entdecken. Also das ist auch irgendwie so eine ganz, ganz seltsame Perspektive. Äh, ich hab noch einen Artikel, den hab ich, glaub ich, bei Icon auch schon vorgestellt. Da ist ein Guardian, der ganz schön genau diese Moderation zeigt. Aber nochmal einen ganz spezifischen Aspekt von dieser Moderation, den du sagtest, weil sich nämlich, ne, dadurch, dass, ich glaub, Nigeria war’s, ist ein ganz zentrales Land eben bei einem dieser KI-Modelle für die, für die Generierung von, äh, für die Moderation von Inhalten. Und auch vor allen Dingen für die Bewertung von Output. Na, die halt sagen, okay, das war eine gute Antwort, das war eine schlechte Antwort. , und dass sich das wohl darin zeigt, dass in den Chat-GPT, äh, aus, ich weiß nicht, ob es Chat-GPT ist, irgendeines dieser Modelle, äh, in den Outputs halt so nigerianische Sprachmanierismen finden. , weil die halt, ne, da gewertet werden. Und was jetzt aber dazu führt, dass Texte, die diese Sprachmanierismen haben, von irgendwelchen KI-Erkennern, als KI-generiert erkannt werden. Was jetzt natürlich wieder dazu führt, dass Texte, die in dem echten nigerianisch geprägten Englisch verfasst werden, häufiger als KI-generiert erkannt werden. , das ist auch wieder, ne, da haben wir auch wieder eine rassistische Dimension drin, also struktureller Rassismus, nicht persönlicher Rassismus. , dann habe ich natürlich noch den Elementalist-Effekt, das ist auch ein sehr schöner Artikel, darüber, warum wir, wenn wir sinnvollen Text lesen, glauben, dass da jemand Intelligentes hintersteht, der diesen Text geschrieben hat. Also, wir lesen Intention in Sprache rein, wir versuchen zu verstehen, was wollte der da sagen, , und das ist halt ein Effekt, den sich, äh, gerade diese Sprachgenerierung zunutze macht, da hatten wir es am Anfang ja auch von. , genau, was habe ich noch? Ein Roman habe ich letztens gelesen, tatsächlich auch zufälligerweise, , wo es genau um diese Organisation der Arbeit ging, von der du sprachst, um diese Moderationsarbeit, das ist Automaton von Berit Glanz. Das ist ein deutscher Roman, , die eben genau das Leben einer alleinerziehenden Mutter, glaube ich, ist es, zeigt, die genau ein solches Leben lebt, , genau diese Aufgaben macht, genau diese, äh, das ist der Amazon Mechanical Turk, ne, das ist die, die rassistische Bezeichnung, äh, dieser Arbeitsweise. , aber Automaton ist im Grunde die, die Neutralisierung, also die, die nicht rassistische Bezeichnung, , das gleiche Gedanke. Und dann, als letztes, äh, ihr merkt, ich lese viel zu dem Thema, , der Newsletter von Ed Citron, äh, der schreibt unglaublich lange Artikel, also, der schreibt irgendwie jede Woche einen Artikel, der bei manchen anderen irgendwie schon fast ein Buch wäre. , und der rekonstruiert hat vor allen Dingen die wirtschaftliche Seite, gerade hinter OpenAI und was investieren die eigentlich gerade und wie realistisch sind Umsatzerwartungen und was passiert eigentlich, wenn die irgendwie keine Kapitalrunden mehr einsammeln und da kam eben auch diese OpenAI-Zahl her. Ich glaub, die sind mittlerweile bei zwei oder drei Milliarden Dollar Kosten für Compute pro Monat und haben halt aber nur irgendwie, ich glaub, eine Milliarde Dollar pro Monat Umsatz. , und da sind alle anderen Kosten, wie Trainingskosten von neuen Modellen und so weiter, sind auch gar nicht eingerechnet. , und haben jetzt irgendwie, was ist das, bei Oracle haben sie jetzt für 350 Milliarden Dollar Compute-Kapazität bestellt für die nächsten fünf Jahre. , oder 250 Milliarden, ich weiß es nicht genau, irgendwie so eine, so eine, so eine Fantasiezahl, , und keiner weiß eigentlich, wie die jemals diesen Umsatz reinfahren soll, weil die nämlich, das fand ich bei dem Ed Citron Beitrag so spannend, die sind noch immer Non-Profit, rechtlich. Ja. Und die kriegen irgendwie so eine große, äh, große Finanzierungscharge nur, wenn sie bis Ende des Jahres kein Non-Profit mehr sind. Aber das sagen alle, das geht eigentlich nicht, weil die haben doch gar nicht erst dafür angefangen, das zu versuchen.
Amanda: Ja.
Nils: , also das, das ist auch einfach super spannend, wenn euch das Thema tiefer interessiert und ihr bereit seid, lange Artikel zu lesen, , schaut euch, äh, schaut euch, äh, Ad Citron’s Newsletter an, der ist da auch sehr, sehr lesenswert. So, jetzt hab ich mal wieder meine üblichen Empfehlungen rausgehauen. Hast du noch welche, Amanda?
Amanda: Äh, sehr gut. Ich hab eine Podcast-Empfehlung, weil die 29er, vielleicht kennt ihr den Podcast, im Salon das gleiche Buch besprochen haben, letzten Monat. Ja, ich hab, ich war da schon dabei, das zu lesen, , da kann man sich das auch noch ein bisschen von einer anderen Perspektive anhören, mit sehr viel mehr Meinung zu, , aber, ja, es ist ziemlich lang, äh, der Salon jeweils, äh, aber, ja, wenn man möchte, kann man, kann man das nochmal von einer anderen Seite, äh, sich anhören. Ich hab noch ein anderes Buch, und zwar, das, auf Deutsch heißt das, was das Valley Denken nennt, von Adrian Daub, da geht es auch ein bisschen so um, um, um dieses Mindset oder um dieses Geschäftsmodell, ne, von dieser Disruption und eben Breakthings und so weiter, äh, der das da ein bisschen beschreibt.
Nils: Das hast du auch selber gelesen schon?
Amanda: , ich hab’s gelesen, ja.
Nils: Okay, aber mir ist das immer noch so, das müsste ich eigentlich mal lesen.
Amanda: Es ist nicht so, es ist, äh, dünn.
Nils: Ja, ja, es ist, ich hab nur so viele Bücher, die ich eigentlich mal lesen wollen würde, äh, selbst wenn die noch so dünn sind.
Amanda: Das stimmt, , er hat noch ein anderes, das weiß ich gerade nicht mehr, äh, das liegt bei mir noch auf, auf der Lese, auf der Leseliste. Ja, auf jeden Fall, , da hat man auch so ein bisschen einen Einblick zu, wie das funktioniert. Ja.
Nils: Gut, äh, genau, zu dem Thema Tescreal kann ich euch auch noch, äh, irgendwie einen Artikel verlinken, den hab ich aber, glaub ich, bei AI-Con auch schon verlegt, insofern, , genau. Gut, hast du noch Punkte, die du mitgeben möchtest, uns mitgeben möchtest zu diesem spannenden Buch?
Amanda: Nein, ich bin gespannt auf die nächste Episode.
Nils: Gut, dann, , ja, vielen Dank, dass ihr zugehört habt, hier bei Episode 98. Das, das wird spannend, das wird spannend. Wenn ihr Episode 99 und natürlich dann auch die 100 und damit das große Finale unseres KI-Themen-Schwerpunktes nicht verpassen wollt, dann abonniert zwischen zwei Deckeln doch am besten auf der Podcast-Plattform eurer Wahl. , als Indie-Podcast freuen wir uns natürlich besonders über Podcasts ein, über Abonnements, einfach über den RSS-Feed. Wir brauchen keine großen Plattformen für dieses Medium, , aber ihr findet uns halt auch auf den Plattformen, weil sonst hört uns keiner. , das, äh, also Spotify. Spotify und so weiter, da könnt ihr uns abonnieren. Ihr könnt natürlich unsere Webseite aufsuchen, zwischenzweideckeln.de, da findet ihr alle relevanten Links. Und wenn ihr uns Kommentare hinterlassen wollt, könnt ihr das auf der Plattform eurer Wahl tun. Ich hab tatsächlich, , letzte Woche erst geschnallt, dass auf Spotify mittlerweile ernsthaft, äh, Podcast-Episoden kommentiert werden. , also könnt ihr uns da Kommentare hinterlassen. Auch da freuen wir uns über die Webseite natürlich auch ganz besonders. , und ihr könnt uns in den sozialen Medien ansprechen. Wir sind auf Blue Sky, sind wir, glaube ich, im Deckeln. Und auf Mastodon sind wir erreichbar unter atzzzd.podcasts.social. Ansonsten bleibt mir bis zu unserer nächsten Episode nur euch zu wünschen viel Spaß beim Lesen.
Amanda: Tschüss zusammen.
Quelle und so
Intro und Outro der Episode stammen aus dem Stück Maxixe von Agustin Barrios Mangore, eingespielt von Edson Lopes (CC-BY).
Das Umblättern zwischen den Teilen des Podcasts kommt hingegen von hoerspielbox.de.
Zwischen zwei Deckeln findest du auch im sozialen Medium deiner Wahl: Mastodon und Bluesky.
Schreibe den ersten Kommentar