Zum Inhalt der Seite gehen



@Data
in irland ist spießroutenlaufen
👇 👁️ 👀 🤔

bitchute.com/video/OW3PoPANOzm…

@Data

Unbekannter Ursprungsbeitrag

mastodon - Link zum Originalbeitrag
Eric-Oliver Mächler ✅
ich kann nicht mal autofahren.
ich wohne 5min vom hauptbahnhof entfernt und bin so schnell überall unterwegs :) mir reicht das - und ich muss in der stadt hier kein parkplatz mieten


Als Antwort auf Data

Built in Israel, the most vaccinated Country?

Data hat dies geteilt.



„Tamara“ – Doku über Silly-Frontfrau Tamara Danz im Berliner Lichtblick-Kino | Berliner Zeitung
Pop und Widerstand, made in GDR: Das Lichtblick-Kino erinnert an die „Rockerresolution“ vom September 1989.
berliner-zeitung.de/kultur-ver…

#berlin



Park(ing) Day in Offenburg
youtu.be/9os5mOWVxVQ?si=KUBS1X…

danke für den Film -
allen hat es Spaß gemacht..





Japanese scientists warns 'Self-Amplifying mRNA Vaccines' Will 'Trigger Worldwide Disaster

rumble.com/v5fsecl-japan-warns…



ufofeed.com/100524/i-traveled-… I traveled to the top of the famous Mauna Kea volcano in Hawaii to capture the moment Saturn slipped behind the moon. This was captured using a 14″ telescope I borrowed on the island. #Astrobiology #Astrophysics #Cosmology #PlanetaryScience #Space #SpaceExploration


Scored some time to play with my partial lunar eclipse data from Tuesday. Despite wildfire smoke, thin fast moving cloud cover and moderately bad seeing - I was able to get a few good shots off. This one just before the max. #astrophotography #lunareclipse #LunarAstrophotography #moon #astronomy 🔭 📷

Thanks to @macmade for the processing tips! you can subtle areas where I used what you suggested!



Astronomer here! It was a struggle to get here, but this week was my first as a professor! byteseu.com/437031/ #Astrobiology #Astrophysics #Cosmology #PlanetaryScience #Space #SpaceExploration #SpaceTechnology


China gonna print, sooner or later ... and when they do, many Chinese people are gonna start dumping yuan for sound money.

zerohedge.com/markets/time-chi…



Für alle die sich für Mittelalter, Geschichte und Kloster interessieren: ich möchte euch unbedingt die grosse Landesausstellung "Welterbe des Mittelalters" in Konstanz und auf der Insel Reichenau empfehlen.

Die ganze Ausstellung hat mich von A bis Z begeistert!

Auch das ganze Drumrum wie Podcast, Hörspiel, App mit Mediathek (auch Offline) usw... sind es wirklich Wert gesehen und gehört zu werden.

Ich bin Fan! 😀

ausstellung-reichenau.de

#Ausstellung #Museum #Geschichte #Mittelalter #Kultur




@Data 😆
der run für die wiesen 24

minds.com/newsfeed/16846048813…


When I see this video, it becomes clear to me that the masses have not learned anything. It's a shame for our species. And all I can think of now, are the words of Wilhelm Busch: Woe, woe if I look at the end......😢 minds.com/newsfeed/16846048813…

@Data


When I see this video, it becomes clear to me that the masses have not learned anything. It's a shame for our species. And all I can think of now, are the words of Wilhelm Busch: Woe, woe if I look at the end......😢 minds.com/newsfeed/16846048813…


Arches National Park byteseu.com/436912/ #Astrobiology #Astrophysics #Cosmology #PlanetaryScience #Space #SpaceExploration #SpaceTechnology


Habe mir "No Escape" aus der #tele5mediathek angesehen.
Mit Owen Wilson & Pierce Brosnan.
Eine US-Familie gerät in Thailand in einen Staatsstreich & muss sich in Sicherheit bringen.

War lange nicht mehr so begeistert & mitgerissen! Was ein grandioser Film, jede Minute passt, 10 von 10, absolut starker Thriller.
Wenn ihr heute einen Film schaut, dann schaut den!

Normalerweise mache ich das nicht aber hier ist sogar ein Link:
tele5.de/mediathek/no-escape

#Tele5 #NoEscape





TRAP von M. Night Shyamalan.
Nichts ergibt Sinn, keine Figur hat eine glaubwürdige Charakterentwicklung, das Skript wirkt wie von einem 12jährigen geschrieben.
Aber: Fuck it, der Film war wirklich spannend und auf eine absurde Art extrem unterhaltsam. Hirn aus, Spaß haben - 8/10


My first ever photo of Saturn. byteseu.com/436753/ #Astrobiology #Astrophysics #Cosmology #PlanetaryScience #Space #SpaceExploration #SpaceTechnology



The Pelican Nebula

220 minutes exposure with #Fujifilm X-T30II and 70-300mm at 300mm, f5.6. Edited with #SiriL and Affinity Photo.

It's been almost two years since editing my last astro photo, and I forgot so much about the workflow already. Luckily I took notes of what to click in SiriL...

#Astrodon #AstroPhotography




sagt mal ist das wahr - in #deutschland sind ab 2025 #dosen verboten?

hahahaha bitte sagt mir das ist ein scherz




#NeuBeiPrimeVideo: Film

** Saphirblau **

Abenteuer, Fantasy, Drama, Action, Science Fiction, Liebesfilm, Familie - 2014 - IMDb 6.2/10

vodspy.de/t/Saphirblau vodspy.de/t/Saphirblau?utm_sou…



Israeli Media Fear Houthis Have Arrived on Israel's Border as Militia Touts Readiness for 'Long War' sputnikglobe.com/20240920/isra… The Yemeni militia began its 11-month-long campaign against Israel on October 19, 2023 with the launch of missiles and drones toward Israeli cities, followed by attacks on suspected Israeli-owned or linked merchant shipping in the Red Sea, in


Oh! I've been wondering why Swedes call secondary school "gymnasium" when in English that makes you think of weightlifting.

So it's not just a Scandinavian quirk.

The word γυμνάσιον (gumnásion), from Greek γυμνός (gumnós) 'naked' or 'nude', was first used in Ancient Greece, in the sense of a place for both physical and intellectual education of young men. The latter meaning of a place of intellectual education persisted in many European languages (including Albanian, Bulgarian, Czech, Dutch, Estonian, Greek, German, Hungarian, Macedonian, Polish, Russian, Scandinavian, Croatian, Serbian, Slovak, Slovenian and Ukrainian), whereas in other languages, like English (gymnasium, gym) and Spanish (gimnasio), the former meaning of a place for physical education was retained.

en.wikipedia.org/wiki/Gymnasiu…



Linksradikal: Ehemaliger Grüne Jugend-Chef will in den Bundestag apollo-news.net/linksradikal-e… Der ehemalige Chef ihrer Jugendorganisation Grüne Jugend, Timon Dzienus, will für den Bundestag kandidieren. Das verkündete Dzienus nun selbst auf ...
The post Linksradikal: Ehemaliger Grüne Jugend-Chef will in den Bundestag appeared first on Apollo News. #news #press


Cousinenheirat – ein heikles Thema auch für den Westen! (Teil 1) sciencefiles.org/2024/09/21/co… Die Eheschließung zwischen Cousin und Cousine bzw. die Cousinenheirat ist eine Form der Verwandtenheirat, d.h. der Heirat zwischen Blutsverwandten. Zur Verwandtenheirat gehören Heiraten zwischen Geschwistern ebenso wie Heiraten zwischen Onkeln und Nichten oder Tanten und Neffen und Heiraten zwischen Cousins und Cousinen. […] #news
#news


So geht #Demokratie, das ist mal klar,
Das Volk wurde gefragt, das ist wunderbar.
Zwei Gesetze abgelehnt, ganz ohne Scheu,
In der #Schweiz, da bleibt die Macht nicht nur ein Spielzeug.
Hier zeigt sich, wie Demokratie echt lebt,
Und das Volk die Richtung vorgibt, wohin es strebt.


Willkommen bei Krasse Links No 27. Sorry, dieser Sommer hat es in sich, diesmal hat mich Covid niedergestreckt, aber nun reitet Eure Pfadgelegenheiten gegen die Infrastrukturen der Verdrängung, heute zersplittern wir unsere Reasoningfähigkeiten im Schmerzlabor.


Der Pageranschlag war ein Terrorakt. Terror ist nicht der Gewaltakt ansich, Terror ist die Angst, die er verbreitet. Und auf dieser Skala war dieser Anschlag off the charts. Stellt Euch das für Euch selbst vor, denn ja, auch Libanesen sind von Smartphones, Laptops und sonstigen batteriebetriebenen Devices abhängig, so wie wir. Stellt Euch vor, dass Ihr keinem Euerer Geräte mehr trauen könnt, dass all Eure Infrastruktur potentiell tötlich ist. Aber vielleicht braucht Ihr es Euch auch gar nicht vorstellen, denn wahrscheinlich wird es nicht lange dauern, bis diese Form des Terrors hier ankommt?


Das neue LLM OpenAi o1 hat 0,2 % besser als das nächst beste Modell, Claude 3.5, in der ARC-Bechmark abgeschnitten. Das ist … nicht überragend. Auch:

It took 70 hours on the 400 public tasks compared to only 30 minutes for GPT-4o and Claude 3.5 Sonnet.


Dennoch feiern die KI-Bros o1 als Durchbruch. Hinter o1 steckt das bereits vor Monaten hier besprochene Projekt Q*, und es ist nur auf den ersten Blick beachtlich. o1 kann jetzt die „R“s in „Strawberry“ zählen (meistens), aber wenn man nachschaut was es dafür machen muss, wird klar, dass das nirgendwo hin skaliert.

Die technischen Neuerungen von o1 bestehen aus drei Ebenen:

  1. Das Modell „reasoned“ erstmal ein paar Sekunden im Hintergrund, ohne das man einsehen kann, welchen Text es da produziert. Der User bekommt dann nur die Zusammenfassung des im Hintergrund erstellten „Reasoning“-Textes zu sehen.
  2. Dieses „Reasoning“ passiert durch „Chain of Thought„. Das Modell teilt das Problem in einzelne Schritte auf und löst sie dann „Step by Step“, ein Verhalten, das man auch vorher anweisen konnte und oft viel effektiver ist, als einfache Prompts.
  3. Doch der entscheidende Faktor ist, dass das Modell mit allerlei zusätzlichen „künstlichen“ Trainingsdaten gefinetuned wurde, die mit etlichen (vllt. Millionen) genau solchen automatisch generierten „Step by Step“-Antwort-Beispielen trainiert wurden.

Um das zu erklären, müssen wir uns ein paar Dinge ins Gedächtnis rufen:

LLMs sind automatisierte Semantik-Navigatoren, die durch Wahrscheinlichkeitsberechnung plausible Pfade im Semantikraum finden. Der Semantikraum ist ein riesiges tausendimensionales Netzwerk, das alle Beziehungsweisen aller Begriffen zueinander gespeichert hat und damit implizit auch, wie man von einem Ort im Netzwerk zum anderen kommt (also sprechen oder denken kann). Die Erkenntnis war: Wenn man die Transformer-Architektur mit unfassbar vielen Texten füttert, kann sie dieses Netzwerk der Bedeutungen teilweise (es fehlen natürlich etliche Dimensionen) synthetisieren und darin einen Chatbot erstaunlich elegante Pfade laufen lassen.

OpenAi hatte damit eine Zeit lang gute Resultate, war aber bereits mit GPT-4 auf einem Plateau gestrandet, auf dem sich inzwischen auch alle anderen Wettbewerber eingefunden haben. Seitdem gibt es immer nur graduelle Verbesserungen und den meisten Fortschritt macht man in Sachen Model-Size (was gut ist, weil weniger Ressourcenintensiv). Und seitdem suchen sie nach Wegen, den Hype hochzuhalten und Q* sollte einer dieser Wege sein. (Der andere ist weiteres Scaling, aber das lass ich hier raus.)

Und hier kommt die Ideologie ins Spiel. Weil Silicon Valley Nerds glauben, dass Intelligenz eine hierarchische Linie von der Amöbe zu ihnen selbst ist und weil LLMs oft erstaunlich konsistent und kompetent mit Inputs umgehen können, schreiben sie ihnen „Reasoningfähigkeiten“ zu und suchen nach Wegen diese Reasoningfähigkeiten an ihren eigenen vorbeizuskalieren, also „AGI“ herzustellen. Ihr wisst schon, dieses Beast, das uns alle in Büroklammern verwandeln soll.

Ihre These ist, dass die LLMs die Welt über die eingespeisten Dokumente (Texte, Bilder, Videos) kennenlernen, so wie sich Fledermäuse über reflektierende Schallwellen im Raum orientieren. Die „Realitätsreflexionen“ der Trainingsdaten erlauben den LLMs dann ein internes „World Model“ zu generalisieren. Diese Kompetenzen entstünden als sogenannte „emergent Abilities“, also als plötzlich, ab einem bestimmten Skalierungsgrad der Modelle auftauchende, neue Fähigkeiten der LLMs.

Enter ARC-Benchmark. Der Google Forscher Francois Chollet hatte der Gegenthese, nämlich LLMs seien nur „stochastische Papageien“ seien, neue Nahrung gegeben, als er mit anderen die ARC-Benchmark konstruierte, die von Menschen zwar einfach, aber von LLMs gar nicht gelöst werden kann, weil ihnen bei den Rätseln die vielen Trainingsdaten einfach nicht weiterhelfen. LLMs, so Chollets resultierende These, merken sich einfach unfassbar viele Lösungspfade und können sie dann bei Bedarf als „emulated reasoning templates“, also semantische „Programme“ reproduzieren.

In Krasse Links 25 verwies ich auf eine Studie, die nachgewiesen hat, dass das sogenannte „In Context Learning„, das oft als Beispiel der „emergent Abilities“ der LLMs herhalten muss, eigentlich antrainiertes Verhalten ist. „In Context Learning“ ist die Fähigkeit von LLMs durch Beispiele im Prompt semantische Operationen nachzuahmen, und es stellte sich heraus, dass die Beispiel-Antworten des „Instruction Tunings“ eine entscheidende Rolle spielen, also genau jene Fine-Tuningphase, in der auch o1 aufgemozt wurde. Statt eines aus den Daten aufsteigenden Weltgeistes, sehen wir also auch hier gebrute-forcte Memorisierung. Und genau diesen Mechanismus haben sie jetzt für o1 mit viel zusätzlicher Rechenzeit geleveraged.

Mit o1 will OpenAi den Pfad gehen, den Deepmind im letzten Jahrzehnt mit AlphaGo vorgelegt hat. AlphaGo wurde in zwei Phasen trainiert: erst lernte es aus etlichen dokumentierten, menschlichen Go-Partien, aber im zweiten Schritt ließ man das System einfach so lange gegen sich selbst spielen, bis seine Fähigkeiten die menschlicher Spieler überstieg. Ein Ansatz, der sich „Reinforment Learning“ nennt und weil sich libertäre Nerds die Welt nun mal wie ein riesiges Go-Spiel vorstellen, glauben sie jetzt, dass man auf demselben Wege den LLMs ihre „Reasoning“-Fähigkeiten auf übermenschliches Niveau leveln kann.

Das „Reinforcement Learning“ besteht in diesem Fall aus GPTs, die für einen großen Haufen Fragen Millionen unterschiedliche Antworten generieren, alles „Chain of Thought“ versteht sich und die Ergebnisse nach Richtigkeit diskrimieren. Weil dann immer nur die richtigen Antworten beim Fine-Tuning an das System zurückgefüttert werden, wird das Modell immer besser darin, richtige Antworten zu reproduzieren.

Der Haken bei dem Ansatz ist halt nur, dass die Welt gar kein Go-Spiel ist und sich der Nutzen entscheidbarer Fragen auf wenige Bereiche beschränkt: Zählen, Rechnen, Logik, Kreuzworträtsel, Tests und andere Benchmarks fallen mir ein. Und in der Tat schneidet o1 in vielen Benchmarks nun deutlich besser ab, aber der daraus gewonnene reallife Nutzen scheint mir vergleichsweise marginal zu sein? Vor allem, da man sich auf den Output ja immer noch nicht verlassen kann und je komplizierter die gestellten Fragen werden, desto schwerer wird es sein, die falschen von den richtigen Antworten zu unterscheiden.

Um einmal zu verdeutlichen, was da genau passiert: es werden für alle möglichen Logik-, Zähl-, Mathe- und Rätsel-Beispielen Millionen, vllt Milliarden Semantikpfade im „tree sort“-Verfahren erkundet, um sich eine nach und nach vollständigere Bibliothek aller „richtigen“ Antwortpfade zu völlig egalen Fragen anzulegen. LLMs haben halt ein genauso großes Gedächtnis, wie Silicon Valley Geld hat, und das scheint auszureichen, einfach alle Lösungspfade durchzuprobieren und sich die richtigen einzuprägen. Und wenn man jetzt bedenkt, dass der dadurch erreichte Nutzen ein erweiterter, aber unzuverlässiger Taschenrechner ist, kommen mir die unfassbaren Ressourcen, die dafür gerade bewegt werden, immer bekloppter vor.


Aaron Ross Powell macht einen lesenswerten Versuch, das aus der KI stammende Konzept des „Model Collapse“ auf die rechte Ideologien anzuwenden. Model Collapse beschreibt die abnehmende Qualität des Outputs von Transformermodellen, wenn sie mit zu viel von ihrem eigenen Output trainiert werden.

Powell glaubt ähnliche Effekte bei ideologischen Gruppen zu sehen, wenn sie zu sehr „high on their own supply“ sind, also ihrem eigenen Bullshit zu sehr vertrauen. Ein Beispiel, das er anführt, ist das rechte Online-Magazin Quillette, das sich so lange abstruse Karrikaturen linker Theorie selbst erzählt hat, bis es nur noch gegen Strohpuppen kämpfte.

In other words, the “Quillette Effect” is an example of an ideological community tricking itself into believing it has learned about ideas outside of its tribe, when in fact it’s just flattering and reinforcing ideas internal to its tribe.


Und dieser Effekt ist derzeit vor allem auf X zu sehen:

Further, because so much of the online right is concentrated on Twitter, people who are active on Twitter come to view the ideas internal to the online right as closer to the mainstream than they in fact are, and so get dragged to the right, often unintentionally. This means that the “training data” of very online ideologues looks increasingly uniform and is just restatements of very online right-wing perspectives, and data outside of that perspective is treated with growing suspicion because it is mistakenly believed to be fringe, and so not worth taking seriously.


Da ist schon was dran, aber ich fürchte, es ist etwas komplizierter:

Unsere Ideologien sind mehrschichtige Bauwerke aus übereinander gestapelten Narrativen. Bei genauerer Betrachtungen ergeben sich auch auf dieser semantischen Markoebene Netzwerkstrukturen, bauen Narrative aufeinander auf, referenzieren sich, beziehen sich, unterscheiden sich untereinander. Jede Astgabelung ist eine semantische Pfadentscheidung, an die sich wieder andere semantische und ja, auch soziale Abhängigkeiten knüpfen. Und jede Pfadentscheidung determiniert die Möglichkeiten, Geschichten weiterzuerzählen. Quillette konnte seine Erzählungen nicht mehr an die Realität angleichen, weil grundlegende Pfadentscheidungen verhinderten (zB. It’s all „cultural Marxism“!), sich auf die tatsächlichen Texte einzulassen.

Auch semantische Infrastrukturen haben Netzwerkeffekte: Jede Sprache wird nützlicher, je mehr Leute sie Sprechen und je weiter verbreitet die eigenen Geschichten sind, desto einfacher kann man sich mit anderen verbinden. Das ist auch das, was Harari in seinem neuen Buch zu erklären versucht.

Die Netzwerkeffekte semantischer Pfadentscheidungen haben wie alle Netzwerkeffekte lokale Maxima, von denen ich manche als „Digitale Tribes“ beschrieben habe. Tribes versammeln sich um eine vom Mainstream abweichende Pfadentscheidung („Häresie“) und schaffen dadurch Kohäsion und einen unabhängigen Erzählstamm, der dann unter dem eigenen Regime weitererzählt werden kann.

Wichtig ist zu verstehen, dass sich der Erfolg narrativer Pfadentscheidungen nicht durch „Realitätsnähe“, sondern letztlich durch soziale Anschlussfähigkeit erklärt. „Realitätsnähe“ kann der Adaption manchmal helfen und manchmal im Weg stehen, wie man daran sehen kann, dass in Deutschland gerade „Klimakatastrophe“ gegen „Ausländer sind das Problem!“ verliert.

Nein, uns wird kein „Modell Collapse“ der Rechten retten.


Deb Chachra ist Ingenieur-Professorin und so denkt sie viel über Infrastrukturen nach und auch wenn ich von TED-Talks nur selten etwas halte, bitte ich Euch, diese 13 Minuten zu investieren.

Chachra kommt aus Kanada, aber ihre Familie stammt aus Indien und sie reflektiert in dem Talk den wesentlichen Unterschied zwischen sich und ihren Großeltern.

The difference between my life and theirs is not so much that I have a bank account, how much I get paid, is a lot more to do with where I am. Because my individual agency, my ability to do things in the world is really underpinned by these shared infrastructural networks.


Infrastrukturen sind das, was Deine „Agency“ überhaupt ermöglicht und damit auch Deine Fähigkeit, Dich als Individuum zu erleben. Doch vertrakter weise sind Infrastrukturen per se kollektivistisch:

So our infrastructural systems connect us to each other, but they also connect us to the land around us. And this is now true really on a global scale, right? So if we think about the internet, we think about mobile phones, we think about particularly sort of shipping and transportation, aviation. These are now planetary networks. And our infrastructural systems also connect us to our past and to our future, because the networks that we live in today are the physical manifestation of the values and choices that were made by people who came before us, right? It’s like, what are those networks going to be? How will we use them? Who would benefit from them? And of course, who would be harmed by them?


Es gilt nicht nur: „Ich denke, also sind wir!“, sondern auch „Ich handle, also sind wir!“

Chachra schlägt ein „Infrastructual Citizenship“ vor, eine bewusste Verantwortungsübernahme für die Netzwerke, die wir bauen, pflegen und in denen wir eingebunden sind.

So I think of this as infrastructural citizenship, the idea that we have a relationship to each other, actually, we have a responsibility to each other that has nothing to do with what it says on our passport, but it has everything to do with the fact that we are like physical, living beings that are located somewhere on the planet.

Ishay Landa (immer diese israelische Historiker!), dessen Buch „Der Lehrling und sein Zauberer“, in dem er die Geburts des Faschismus aus den semantischen Eingeweiden des Liberalismus beschreibt und das ich seit zwei Jahren hier rumliegen habe, aber noch immer nicht geschafft habe zu lesen, hat der WOZ ein lesenswertes Interview gegeben.

Individualismus wird gewöhnlich als Quintessenz des Liberalismus angesehen, während Bewegungen wie der Faschismus als antiindividualistisch gelten. Der Faschismus, so wird gemeinhin angenommen, wolle das Individuum in der uniformen Masse aufgehen lassen. Von dieser falschen Gegenüberstellung muss man sich aber verabschieden, weil sie sowohl den Liberalismus als auch den Faschismus nicht zu fassen kriegt. Ich unterscheide in meinem Buch zwischen zwei Formen des Individualismus: einem horizontalen und einem vertikalen. Bei Ersterem wird das Recht und das Verdienst eines jeden Menschen betont, jeder als Individuum anerkannt. Das hat egalitäre Konsequenzen, die urdemokratisch und mit sozialistischen Vorstellungen verwandt sind. Es entspricht aber nicht der Vorstellung der meisten Liberalen. Bei ihnen gelten eigentlich nicht alle als Individuen. Dieser Status ist nur wenigen vorbehalten, nämlich jenen, die besonders begabt und erfolgreich sind. Das ist ein vertikales Verständnis des Individualismus, der nur für jene gilt, die besonders talentiert sind, sei dies angeboren oder biologisch begründet.


Okay, hier ist mein Deal: Ich habe aufgehört, ans Individuum zu glauben. Ja, es gibt Akteure, die Dinge anstoßen, aber wir alle navigieren nur innerhalb vordefinierter Strukturen. Wir können nur navigieren, weil uns zu jedem Zeitpunkt immer nur so und so viele Optionen zur Verfügung stehen, unsere Geschichte weiterzuerzählen. Wir sind also Opportunisten und alles was wir tun, ist mit den uns zur Verfügung stehenden semantischen Schablonen nach Pfadgelegenheiten Ausschau zu halten, um auf ihnen durchs Leben reiten.

Diese Gelegenheiten werden wiederum von Infrastrukturen bereitgestellt, materielle wie semantische und weil wir uns nun mal im Kapitalismus bewegen, ist eine besonders netzwerkzentrale Infrastruktur das Geld. Zugang zu dieser Ressource ermöglicht Zugang zu vielen anderen Ressourcen und damit Pfadgelegenheiten. Aber Eigentum/Geld/Preise sind nur ein Abstraktionslayer, den wir als Zugangsregime über einen Großteil unserer Infrastrukturen gelegt haben. Im Alltag erleben wir Normalos Geld deswegen als den entscheidenden Flaschenhals, der unsere individuelle Navigationsfähigkeit ermöglicht und begrenzt und damit das absteckt, was Lea Ypi neulich „horizontale Freiheit“ nannte.

Was Landa hier beschreibt, stelle ich mir konkret so vor: Leute, die vergleichsweise viele Pfadgelegenheiten vor sich zu haben gewohnt sind, also wir Mittelstandskids aus dem Westen, haben uns eingeredet, bzw, einreden lassen, dass wir Individuen sind. Das Framework des „Individuums“ erlaubt es uns auszublenden, dass sich unsere Freiheit aus den vielfältigen materiellen und semantischen Infrastrukturen speist, die unsere Vorfahren und andere Menschen um uns herum gebaut haben, bzw. bauen und maintainen. Statt also unsere Eingebundenheit in diese Strukturen anzuerkennen, reden wir uns seitdem ein, wir hätten unseren „Wohlstand“ „erarbeitet“ und wenn wir es materiell zu etwas gebracht haben, schließen wir daraus, dass wir besonders „intelligent“ sein müssen und damit auch individueller als andere Menschen.

Und dann schauen wir auf andere Menschen, deren Infrastrukturen ihnen deutlich weniger Pfadgelegenheiten bieten und unser Individualismus-Framing deutet diese mangelnde Agency dann als verminderte, oder gar abwesende Individualität, also ein Mangel an Intelligenz und/oder Zugehörigkeit zu einer „rückständigen Kultur“. Das ist der materielle Kern dessen, was Judith Buttler mit „Abjectification“ meint und es ist die Rutschbahn vom Liberalismus zum Faschismus, auf der gerade der gesamte Westen gleitet. Huiiii!


Im ND findet sich ein lesenswertes Stück über den derzeitigen Rechtsruck, der hier als gesellschaftsweiter Anti-Links-Ruck gedeutet wird.

Für diesen Modus sei entscheidend, dass der gesellschaftlichen Mitte beziehungsweise den «normalen Leuten» ein Bedrohungsszenario vorgesetzt werde. Der links-grüne Gegner, so das skizzierte Szenario, schlage nicht nur falsche oder gefährliche Politik vor, sondern sei eine «Bedrohung der eigenen Identität», er verachte die «normalen», «hart arbeitenden» Menschen und wolle sie übervorteilen. Man müsse sich also zur Wehr setzen. Ob es um geschlechtersensible Sprache, das Bürgergeld oder Migrationsfragen ginge: «Allen drei genannten Themenfeldern gemeinsam ist das Narrativ, wonach den Menschen aus der vermeintlich normalen Mitte von links-grüner Seite etwas weggenommen werde, sodass sie in ihren Rechten beschnitten würden und nicht mehr sagen dürften, was sie denken. Grüne und Linke werden so kurzerhand als Antidemokrat:innen dargestellt, die die Demokratie mittels Denkverboten und Gesetzen einschränken», so Mullis. Wirtschaftsliberale Parteien argumentieren im Übrigen inzwischen weithin ähnlich.


Das alles stimmt. Aber die Linke hat aber auch geblinzelt?

Man sagt ja immer, die Linke sei gespalten, aber das stimmt einfach nicht mehr. Nach Corona, dann Ukraine und dann noch Gaza ist die gespaltene Linke noch mal zersplittert, geschreddert und dann zu Sand gemalen worden. Die Linke hat sich entlang ihrer orthogonalen Bruchlinien von Klima, Gender, Pazifismus, Marxismus und Postkolonialismus gehackt gelegt und es scheint, als gäbe es kaum eine gemeinsame Erzählung mehr, die sie wieder erwecken könnte.

Das mag jetzt hart klingen, aber ich glaube, dieser Schmerz ist notwendig. Schmerz deutet immer auf Realität, also auf Widersprüche, auf „semantische Dissonanzen“. Die gelernten Erzählungen passen einfach nicht mehr zum Beat der Realität (er spritzt einem z.B. täglich als Kinderblut ins Gesicht). Und im Gegensatz zur Rechten (Quillette), hält man das links nicht so gut aus.

Man muss wissen: Semantische Dissonanzen tun weh, semantische Pfadkorrekturen aber noch viel mehr! Man muss ja nicht nur in der Tiefe der eigenen Vorstellungswelt die Axt an der faulen Pfadentscheidung anlegen, sondern auch einen plausiblen Alternativ-Pfad finden und ihn mühsam erkunden. Dann muss man all die daran hängenden Pfadabhängigkeiten entflechtet und umorganisieren, insbesondere die Abhängigkeiten zur eigenen Identität! Eine Pfadkorrektur ist ein psychologisch wie emotional enorm aufwändiger Prozess. Hence Depressionen, „Phasen der Trauer“ und der riesige Incentive zur Verdrängung.

Meine These zur Linken ist die: sie sind einfach ist nicht so gut im Verdrängen. Natürlich verdrängt auch sie massiv, aber eben etwas weniger, was ausreicht, einen Deut mehr Schmerz zuzulassen. Im Idealfall gelingt es, diesen Surplus-Schmerz in neue, integrative Erzählungen zu übersetzen, die die Kraft haben, alle Leute, die denselben Schmerz spüren, zu versammeln, um sich gegen die jeweilige, herrschende Struktur aufzulehnen, seien es Sklavenhalter, der Adel, das Patriarchat, Kolonialismus oder Kapitalismus.

So funktioniert die Linke seit Jahrhunderten: als Labor des Schmerzes. Jedes Movement nimmt einen Schmerz auf, entwickelt dafür Erzählungen und kämpft neben notwendigen Veränderungen der materiellen und rechtlichen Infrastrukturen, für die Anerkennung dieser neuen Semantik. Und im Erfolgsfall, nach meist vielen, vielen Jahren, perkulieren diese neuen Semantiken, die ja eigentlich Schmerz-Rezeptoren sind, in die Gesellschaft, werden zur Infrastruktur, schaffen veränderte Identitätsgelegenheiten und Perspektiven.

Das ist nicht nichts! Ja klar, die Linken wollten auch immer den Kapitalismus zugunsten eines besseren Gesellschaftssystems überwinden, aber … naja, das kommt bestimmt noch.

Jedenfalls tun all diese Kämpfe entlang all dieser Schmerzen auch etwas anderes: sie supporten einander, sie lernen von einander, sie tauschen Geschichten und Semantiken aus und legitmieren einander. Alle wissen: sie Kämpfen immer auch dafür, weiter Kämpfen zu dürfen.

Weil Linke sich gegen Verdrängung stellen, sind sie meist nicht sonderlich beliebt, ganz besonders nicht bei der jeweils herrschenden Struktur und deswegen ist ihre Freiheit, neben der Freiheit der Unterprivilegierten, der „Canary in the Coal Mine“ für die vertikale Freiheit einer Gesellschaft. Und dieser Korridor zieht sich gerade in atemberaubenden Tempo zu.

Das ist das gefährliche an der Situation. Während die Linke als gesellschaftliches Realitätskorrektiv ausgeknockt ist, dreht der Rest der Gesellschaft komplett frei. Alle Parteien, außer den Linken und einigen Grünen, haben den Pfad der Realität komplett verlassen und perpetuieren gemeinsam und ohne jede gesellschaftliche Gegenwehr die politische Öffentlichkeit in eine ruinöse, populistisch-rassistische Abwärtspirale der Unmenschlichkeit, in der Jahrzehnte an Fortschritt in wenigen Wochen zerstört werden.

Was ich sagen wollte, liebe Linke, bei all der Wichtigkeit des Soul-Searchings, bitte beeilt Euch!

mspr0.de/krasse-links-no-27/


Willkommen bei Krasse Links No 25. Sorry, war letzte Woche krank, aber jetzt migriert Eure Publikumsjoker aus Happyland, heute vereinfachen wir die Zusammenhänge bis zur Kenntlichkeit.

Im letzten Newsletter hatte ich darauf hingewiesen, dass man etwas gegen die Macht der Milliardäre machen sollte, bevor es zu spät ist und das einfachste, was man sofort jetzt machen kann (ja, noch vor dem weiterlesen), ist diese Petition zu unterschreiben.

Einführung einer Vermögenssteuer zur Finanzierung des ökologischen und sozialen Wandels

Btw, ein wirklich toller Name für die Tech-Milliardäre ist Broligarchs. Den Begriff benutzt Brooke Harrington in ihrem tollen Stück über die durchgeknallte Silicon Valley Elite im Atlantic.

This mindset comes through in a 1997 book that Thiel has listed among his favorites of all time: The Sovereign Individual, by James Dale Davidson and William Rees-Mogg. The text unironically likens the ultrarich to “the gods in Greek myth,” and assures readers that they deserve no less than world domination: “Commanding vastly greater resources and beyond the reach of many forms of compulsion, the Sovereign Individual will redesign governments and reconfigure economies.” In describing why he included the book, Thiel said that it offered a “prophecy” of “a future that doesn’t include the powerful states that rule over us today.” Thiel has famously argued that freedom and democracy are incompatible.


Harrington führt dieses Mindset auf das Selbstverständnis der „Unverwundbarkeit“ zurück, das Menschen mit derart großem Ressourcenzugriff zwangsläufig ereilt. Sie können ihre rechtslibertären Politexperimente an der Gesellschaft nur deshalb durchführen, weil sie sich auf deren Funktionieren nicht mehr angewiesen fühlen.

And if the nation becomes a crumbling ruin, with cratering health and education levels, or roads and bridges falling to pieces, then what of it? In the short term, broligarchs can adapt to local anarchy as the ultrarich of Brazil and Mexico have done, using helicopters to commute a few blocks to work or to ferry their children to school, high above the crime-ridden streets where their fellow citizens must struggle to survive as best they can. In the long term, when their adaptations cease to protect them, they can retreat to luxury underground bunkers—complete with bowling alleys!—or even to outer space.


Eventuell sollte man „Reichtum“ endlich als psychisches Krankheitsbild anerkennen und allein zum Schutz der Betroffnen Maßnahmen zur Heilung veranlassen?


Ganz ehrlich? Ich weiß nicht mehr, was ich zu X und zu Musk noch sagen soll?

Mein Plattformbuch beginnt mit der Feststellung, dass die Tatsache, dass Plattformen viel Macht haben, ein absoluter Gemeinplatz geworden ist. Damit meinte ich nicht nur die Forschung. Jedes Provinz-Feuilleton und der Tagesschau ihre Mutter nervte jahrelang mit großen Aufmachern vor den Gefahren, die von der Macht der Plattformgiganten ausgingen.

Und irgendwie bin ich deswegen davon ausgegangen, dass, wenn so eine Plattform in die Hände von … sagen wir, einem durchgeknallten Rechtsradikalen … fällt, alle – wirklich alle – die Gefahr der Situation erkennen und gesellschaftsweit dazu mobilisieren, die Plattform in Scharen zu verlassen?

Das hat sich … nur zum Teil bestätigt, einem nach wie vor viel, viel zu geringen Teil. Und ich weiß ehrlich gesagt nicht, auf welches Ereignis die verbleibenden User noch warten? Ist der im Ansatz bereits gelungene Versuch einen Rassenkrieg in Europa anzufachen noch nicht genug?

Wer sich immer noch einredet, dass er/sie durch seine Präsenz auf X irgendwas zum Positiven bewegen kann, betreibt olympische Verdrängungsleistung. Jeder, der dort schreibt und liest, macht sich zum Teil des Problems. X mag als soziales Netzwerk an Bedeutung verlieren, aber es ist nachwievor die größte und mächtigste Nazipropagandawaffe, die es je gab. Unsere einzige Chance ist, sie irrelevant zu machen.

Wer elaboriertere Argumente braucht, darf sich gerne durch diese Links klicken.

Ich bin fertig mit dem Thema.


Es gibt etliche Regalmeter, die versuchen den überall aufpoppenden Rechtsradikalismus zu erklären und an den elaborierten Theorien wird hier und da etwas dran sein, aber manchmal beschleicht mich das Gefühl, dass wir die Sache komplizierter machen als sie ist?

Jedenfalls schafft es James Risen im Intercept praktisch die gesamte Politik des MAGA/Trump-Movements auf schlichten Rassismus zurückzuführen. Konkreter meint er die Angst der weißen amerikanischen Mehrheitsgesellschaft vor der sich abzeichnenden demographischen Verschiebung.

Dominated by Trump, the Republican Party adheres to policies designed both to maintain white political power and increase the white percentage of the nation’s population.

Once you understand that it is all about white power — especially white male power — the Trump-Republican agenda begins to make sense.


In der Tat:

  • Pro-Natalism (mehr weiße Babys)
  • Anti-Immigration, pro Deportation (gegen braune Babys)
  • Abtreibungsverbot (für mehr weiße Babys)
  • Anti-LGBTQ (mehr LGBTQ = weniger weiße Babys)
  • Pro Putin (Verteidiger des weißen Christentums)
  • Pro Israel (Vorposten gegen die Islamische Welt)

Und irgendwas sagt mir, dass das in Deutschland auch nicht so viel anders ist?


Wenn es Euch so geht wie mir, fragt ihr Euch nachwievor täglich, warum Kamala Harris‘ „weird“ so viel besser funktioniert als Joe Bidens „Democracy is on the ballot“. Ist letzteres nicht die viel größere Bedrohung?

Es gibt viele kluge Explainer, warum „weird“ funktioniert (zum Beispiel den von Jonas Schaible, dessen Newsletter sowieso in jede Inbox gehört), aber mir scheint, dass die oben gestellte Frage bereits eine Antworten enthält: „Gefahr für die Demokratie“ ist einfach eine Hausnummer zu groß?

Tupoka Ogette hatte vor einigen Jahren den Begriff „Happyland“ im Bezug auf Rassismus geprägt.

Fragt man die Bewohner*innen Happylands, wie es denn so um Rassismus steht in dieser Welt, wird er*sie mit an Sicherheit grenzender Wahrscheinlichkeit sagen, dass das kein großes Thema mehr ist. Mehr noch, Happyländer*innen sind überzeugte Nicht-Rassisten. Nichts läge ihnen ferner, als jemanden bewusst auszugrenzen. Jedenfalls ist das nicht Teil ihres Selbstverständnisses. Sie halten sich für offen und tolerant. Das liegt daran, dass nicht nur das Wort, sondern auch die Gedanken daran aus Happyland verbannt wurden.


Die gute Nachricht ist, dass wir gar nicht in Deutschland, Frankreich oder den USA leben, sondern alle gemeinsam in Happyland, wo alles schön und fluffig ist. Und Happyland kann gar nicht durch Rassismus bedroht sein, denn den gibt es in Happyland ja nicht. Entsprechend entlädt sich die Wut der Happylandbewohner*innen nur selten gegen Rassist*innen, sondern meist gegen Menschen, die ihre Rassismuserfahrungen öffentlich machen, diese Miesepeter!

Etwas ganz ähnliches sieht man in der Kriminalisierung des Klimaaktivismus, denn es ist ja längst wissenschaftlich erwiesen, dass Happyland weder vom Klimawandel betroffen ist noch dazu beiträgt.

Meine These wäre also: „Democracy is on the ballot“ passt genauso wenig in den Happyland-Briefkasten, wie Rassismuserfahrungen oder Klimaklebstoff. Waaas? UNSERE superduper Demokratie bedroht? Ihr spinnt doch!

Aber „weirde“ Leute passen da eben auch nicht hin? Mit denen wollen wir jedenfalls nichts zu tun haben!


Google wurde erstmals von einem Gericht als Monopol verurteilt und das wird Silicon Valley im Mark erschüttern. Es gibt dazu viel zu sagen (vielleicht ein andermal mehr), aber ich finde hier vor allem die Preissetzungsmechanismen spannend.

Googles Preisschraube setzt bei den Werbekund*innen an, die ihre Anzeigen über einen intransparentes, automatisiertes Versteigerungsverfahren buchen. Aus dem Urteil:

Google can affect the final price paid for an ad through so-called “pricing knobs” or “pricing mechanisms.” Id. at 779, 783. Google has used three primary pricing knobs to influence prices: (1) squashing, (2) format pricing, and (3) randomized generalized second-price auction.


Die „Knöpfe“ sind nicht direkt Preissetzend, aber erhöhen künstlich den Wettbewerbsdruck um die gebuchten Keywords, was dann wiederum den Endpreis erhöht. Aus Sicht der Werbekund*innen ist das natürlich null nachvollziehbar.


Alistair Barr rantet im Wallstreet Journal lesenswert über die Legacy von Silivon Valley:

Streaming is now just as expensive and confusing as cable. Ubers cost as much as taxis. And the cloud is no longer cheap.


Ich seh das so: Ab etwa 2010 fing das Silicon Valley an, das Plattformgeschäftsmodell wirklich zu verstehen. Welche Dynamiken Netzwerkeffekte entfalten, wie Graphnahmen funktionieren, welche strategische Rolle Skalierung spielt, und wie und welche Leute man zum Bezahlen bekommt und wie man dann langsam per Enshittyfication an den „Pricing Nobs“ dreht, um den Druck auf der Cashflow-Pipline beliebig zu erhöhen.

Am Ende war es ein gesellschaftsweiter Enkeltrick: „Cut out the Middlemen“, hieß es, also ersetze etablierte Infrastrukturen durch diese „shiny new“ Infrastrukturen, die viel, viel zentralisierter sind und uns durch ihren ungleich stärken LockIn immer abhängiger gemacht haben, während wir die Alternativen haben verrotten lassen. Und jetzt werden wir halt ausgequetscht.


Large Language Models sind scheißekomplexe Systeme und es hat mich sehr viel Zeit und Anstrengung gekostet auch nur eine grobe Vorstellung davon zu bekommen, wie sie funktionieren. Auf der anderen Seite gibt es immer wieder super praktische Explainer und dieser hier ist deswegen bemerkenswert, weil man da einfach direkt mit rumspielen kann.


Ein in der KI-Diskussion immer wieder auftauchender Begriff ist der der „Emergent Abilities“ und jetzt hat ein Paper wahrscheinlich die Nuss geknackt, was dahintersteckt.

Kurz zusammengefasst beziehen sich Emergent Abilities auf die Beobachtung, dass LLMs ab einer bestimmten Skalierung neue, vorher nicht gekannte Fähigkeiten zeigen, etwa „In Context Learning“, „Step-by-step reasoning“ und die Fähigkeit, bestimmte Benchmarks zu erreichen. Der Begriff stammt aus einem Google-Paper, wurde aber kurz danach von anderen Forscher*innen als Mirage bezeichnet und seitdem geht die Diskussion.

Zusammen mit den „Scaling Laws“ stehen die „ermergent Abilities“ im Zentrum der Debatte, in wie weit LLMs fähig sind zu „denken“, oder ob sie eben doch nur stochsatische Papageien sind. Ich positionierte mich neulich ja (endlich) auf der Papageien-Seite und fand die Beschreibung der „Reasoningfähigkeiten“ als semantische „Programme“ plausibel, die Francois Chollet aufgebracht hat. Aber wie genau funktioniert das?

Dieses Paper kommt der Auflösung des Rätsels m.E. ein ganzes Stück weit näher (danke Julian). Um ihren Ansatz zu verstehen muss man wissen, dass es neben dem Basistraining der LLMs, bei dem ihnen die riesigen Textkorpora eingeprügelt werden, noch weitere Schritte des Trainings gibt, die man „Fine-Tuning“ nennt. Grob gesprochen erhalten die Modelle im Basistraining ihr Wissen und ihre Sprachfähigkeiten und im Fine-Tuning bekommen sie beigebracht, sich auf eine bestimmte Art zu verhalten, z.B. ein hilfreicher Chatbot zu sein.

Ein wichtiger Teil des Fine-Tuning ist wiederum das Instruction-Tuning, das ist, wo die Modelle beigebracht bekommen, wie man gut auf Prompts reagiert und entsprechend bestehen die Trainingsdaten aus etlichen Prompt-Antwort-Beispielen.

Die (experimentell unterfütterte) These der Forscher*innen ist nun, dass es diese Instruction-Tuning-Beispiele sind, auf die die LLMs als „semantische Programme“ zurückfallen, wenn sie „In Context Learning“ (ICL) praktizieren.

We propose that instruction-tuning enables models to map instructions to the form required for ICL, thus allowing instruction-tuned models to solve tasks using some implicit form of ICL. Importantly, during this process, models could be directly making use of the same underlying mechanism that makes ICL possible, just in a different way than when the model explicitly makes use of ICL from examples provided in the prompt. We call this use of ICL ‘implicit’ in-context learning. Performing such a mapping would be relatively straightforward for a very large model, especially given that this task format aligns closely with the training process carried out during instruction-tuning.


Ich weiß, das ist alles furchtbar kompliziert und verwirrend und der „stochastische Papagei“ erklärt dabei herzlich wenig, deswegen hier die kürzeste LLM-Erklärung, die mir bisher eingefallen ist:

LLMs funktionieren wie der Publikumsjoker bei Wer wird Millionär: Es gibt immer einen Satz, der vervollständigt werden muss, und die Mehrheitsentscheidung des Publikums bestimmt wie.

Und der Grund, warum LLMs funktionieren, ist derselbe, warum der Zuschauerjoker überraschend oft funktioniert. Das Publikum teilt eine gemeinsame Landkarte des Wissens, aber jede einzelne Person hat einen leicht anderen Ausschnitt. Die meisten Teile überschneiden sich, doch der eine kennt sich eher im Gartenbau aus, die andere in der Philosophie, der nächste in Technik und wieder eine andere ist viel gereist. Einzeln haben sie große Wissenslücken, aber gemeinsam decken sie ziemlich viel Territorium ab und wo sich ihr Wissen überschneidet, akkumuliert sich eine hohe Treffsicherheit.

Bei LLMs besteht das Publikum aus den Millionen Trainings-Texten und die Mehrheitsentscheidung passiert als Wahrscheinlichkeitsrechnung, aber das grobe Prinzip ist tatsächlich dasselbe.

Nun kann man das Ergebnis des Publikumsjokers erheblich verbessern, indem man das Publikum von 10 auf 100 vergrößert, wahrscheinlich auch noch, wenn man weiter auf 1000 skaliert, aber ein Publikum von einer Millionen wird nur homöopathisch besser sein als die Tausend. Kurz: Wir stoßen – wie bei den LLMs – auf „deminishing Returns“ und die Idee, dass ein Milliardenpublikumsjoker eine Superintelligenz triggert, wirkt ziemlich abwegig?


Die Leute bei OpenAI haben eine Methode gefunden, wie man Watermarks in LLM-generierte Texte integrieren kann, also die Texte so produzieren kann, dass man sie als LLM-Output automatisiert erkennen kann.

ChatGPT is powered by an AI system that predicts what word or word fragment, known as a token, should come next in a sentence. The anticheating tool under discussion at OpenAI would slightly change how the tokens are selected. Those changes would leave a pattern called a watermark.

The watermarks would be unnoticeable to the human eye but could be found with OpenAI’s detection technology. The detector provides a score of how likely the entire document or a portion of it was written by ChatGPT.

The watermarks are 99.9% effective when enough new text is created by ChatGPT, according to the internal documents.


Natürlich weigert sich OpenAI die Methode auszurollen. Den Grund dafür brachte Ethan Mollick schon vor einem Jahr auf den Punkt:

„Much of the value of AI use comes from people not knowing you are using it.“


Hey EU, ich hätte da eine Idee für eine Regulierung?


Die KI-Blase ist immer noch nicht geplatzt, obwohl praktisch alle nicht gehirngewaschenen Menschen „Bullshit“ gecalled haben und es macht Sinn sich zu fragen, wieso?

Ein offensichtlicher Grund scheint zu sein, dass Silicon Valley einfach die Alternativen fehlen. Das Plattformgeschäftsmodell hat grob von 2008 bis 2018 immer neue lukrative StartUps produziert, ist aber spätestens mit der fraglichen Wirtschaftlichkeit von WeWork, Uber und AirBnB outgefizzelt. Und seitdem rudern sie: Crypto, Metaverse und nun eben generative KI. Platzt KI, steht Silicon Valley ziemlich nackt da. Brian Merchant:

That’s what makes this such a wild moment. Because *despite all that* big tech has absolutely convinced itself that generative AI is the future, and thus far they’re apparently unwilling to listen to anyone else—even, so far, the money!—who pretty clearly thinks otherwise. Maybe they just don’t have any other viable ideas as to what to hype next if generative AI doesn’t pan out. Maybe they consider the sunk costs too high to jump ship. Maybe they’re genuinely worried that if they don’t crack the code and make an AI that can reliably do all the stuff they’ve promised AI can do someday, a competitor will. Maybe they’re seeing something most of us aren’t seeing. Who knows.


Nun ist das Plattformgeschäftsmodell für die Techfirmen nach wie vor unfassbar lukrativ und füllt zuverlässig ihre Geldspeicher.

The largest tech companies in the world are also the richest. Apple increase; Amazon, Microsoft and the parent companies of Google and Facebook now collectively sit on a little more than $570 billion in cash, short-term and long-term investments. That is more than double the collective pile of the next five richest nonfinancial companies on the S&P 500 index, according to data from S&P Global Market Intelligence.


Was sollen sie sonst mit dem Cash tun? Sinnvolle Produkte bauen? In ETFs anlegen? Den Welthunger besiegen?

Dazu kommt noch das viele Geld von Saudi Arabien und den Vereinigten Arabischen Emiraten. Die Washington Post hat einen sehr lesenswerten Artikel dazu:

Microsoft last month announced a $1.5 billion investment in G42, the United Arab Emirates’ flagship tech firm, which also has an agreement to use AI language models from Sam Altman’s OpenAI. Prominent venture capital firm Andreessen Horowitz is in talks to raise $40 billion from Saudi Arabia for a dedicated AI fund.


Mit ihren fast 2 Billionen („Trillions“ im Englischen) verfügbaren Reserven haben sich die beiden Öl-Dikaturen zu den größten nicht-US-basierten Finanziers Silicon Valleys im Allgemeinen und generativer KI im besonderen gemausert und es wird immer schwieriger, sich daran zu erinnern, dass Menschenrechte – zumindest in der Öffentlichkeitsarbeit der Tech-Konzerne – einmal eine Rolle spielten.

Some tech entrepreneurs and venture firms once shunned Middle Eastern funding, driven by concern for human rights abuses, the region’s ties to China and industry disdain for what were once considered lucrative, but unsophisticated, investments, deemed “dumb money,” from oil states. The 2018 killing of Saudi journalist and Washington Post contributor Jamal Khashoggi caused some firms to explicitly step away from the country’s cash.

But Middle Eastern money has become the most powerful geopolitical force in the tech industry virtually overnight. “The Khashoggi era is over,” said a prominent venture capitalist.


Der eigentliche Twist der Story besteht aber darin, dass auch Washington seine Finger im Spiel hat. Generative KI ist derzeit das Hauptargument, mit dem die USA China aus dem neuen Technologie-Mekkah „outcrowden“ will:

Given the state of technology competition with China, “it’s going to be hard to coexist in both systems,” officials told their UAE counterparts, according to a senior administration official. ‘Look, you’re going to have to choose if you want to access that technology.‘

Before Microsoft invested in G42, the Biden administration won assurances the UAE company would divest from Chinese firms, remove Chinese technology from its data centers and would work to prevent advanced capabilities from leaking to China.


Nicht nur Silicon Valley ist davon abhängig, den KI-Hype aufrecht zu halten, sondern auch die Biden-Administration. Künstliche Intelligenz ist derzeit der wichtigste Motor westlich-geopolitischer Korruption.


John Oliver hat einen Beitrag über die Zustände im Westjordanland gemacht und international anerkannte Mainstream-Commedians und ihre gut recherchierten Beiträge sind meine letzte Hoffnung gegen die deutsche Staatsraison.


Das Israelische Magazin +972Mag, das bereits einige der KI-Programme, mit denen der Massenmord in Gaza durchgeführt wird, enttarnt hat, berichtet über die Nutzung kommerzieller Cloud-Infrastrukturen durch das israelische Militär.

But the “most important” advantage that the cloud companies provided, Dembinsky said, was their advanced capabilities in artificial intelligence. “The crazy wealth of services, big data and AI — we’ve already reached a point where our systems really need it,” she said with a smile. Working with these companies, she added, has granted the military “very significant operational effectiveness” in the Gaza Strip.


Gaza wird mit einer Intensität und Lückenlosigkeit überwacht, die wahrscheinlich einzigartig ist auf der Welt und das braucht einfach ne Menge Computerpower?

Military sources emphasized to +972 and Local Call that the scope of intelligence collected from the surveillance of all Palestinian residents of Gaza is so large that it cannot be stored on military servers alone. In particular, according to intelligence sources, much more extensive storage capabilities and processing power were needed to keep billions of audio files (as opposed to just textual information or metadata), which compelled the army to turn to the cloud services offered by tech companies.


Und alle sind mit dabei: Google, Amazon, Microsoft. Die Cloud ist jetzt eine Kriegswaffe und eventuell liegt dein Facebook-Profilbild auf demselben Server wie die Zielkoordinaten eines palästinensischen Krankenhauses.


Das betrifft auch Social Media. Der EFF veröffentlichte einen Appell an die Tech-Unternehmen, Israels staatlicher „Cyber Unit“ keinen präferierten Zugang mehr für Moderationsanfragen mehr zur Verfügung zu stellen, mit dem sie sehr erfolgreich Jagd auf Pro-Palästinensische Meinungsäußerungen macht.

This is not new. The Cyber Unit has long boasted that its takedown requests result in high compliance rates of up to 90 percent across all social media platforms. They have unfairly targeted Palestinian rights activists, news organizations, and civil society; one such incident prompted Meta’s Oversight Board to recommend that the company “Formalize a transparent process on how it receives and responds to all government requests for content removal, and ensure that they are included in transparency reporting.”

Nirgends sieht man die Verschmelzung von Silicon Valley mit dem Industriell-Militärischen Komplex schneller voranschreiten, als im Gravitationsfeld von Palantir.

Palantir Technologies Inc. (NYSE: PLTR) and Microsoft Corporation (NASDAQ: MSFT) announce today a significant advancement in their partnership to bring some of the most sophisticated and secure cloud, AI and analytics capabilities to the U.S. Defense and Intelligence Community. This is a first-of-its-kind, integrated suite of technology that will allow critical national security missions to operationalize Microsoft’s best-in-class large language models (LLMs) via Azure OpenAI Service within Palantir’s AI Platforms (AIP) in Microsoft’s government and classified cloud environments.


I keep telling you: Gaza ist nur der Testfall.

mspr0.de/krasse-links-no-25/


Dieser Beitrag wurde bearbeitet. (1 Monat her)


USA verlegen zusätzliche Kräfte nach Alaska de.rt.com/international/219945… Die USA verstärken ihre Einheiten in Alaska, um Russland und China in der Arktis zu begegnen. Nach Angaben der Zeitung Politico wurden bereits ein Zerstörer USS Sterett entsandt und eine Heereseinheit mit dem Langstreckenraketensystem verlegt. #news #press


Missbrauchsskandal um Mohamed Al-Fayed: Laufend neue Vorwürfe gegen verstorbenen Unternehmer exxpress.at/missbrauchsskandal… Dem verstorbenen Vater von Dodi Al-Fayed werden Vergewaltigungen, Vergewaltigungsversuche und sexueller Missbrauch vorgeworfen. Die Liste der mutmaßlichen Opfer wird immer länger. #news #press


Zeitgeist: Zeitgeist Wie die Hermeneutik des Verdachts der Demokratie schadet jungefreiheit.de/kultur/gesell… Freund-Feind-Markierungen und absichtliches Mißverstehen vergiften den politischen Diskurs. Das ist nicht bloß ärgerlich, sondern gefährlich für die Demokratie.
Dieser Beitrag Zeitgeist Wie die Hermeneutik des Verdachts der Demokratie schadet wurde veröffentlich auf JUNGE FREIHEIT. #news #press


Der Nahost-Konflikt (VIII): Offener Brief an Paul Brandenburg, Milena Preradovic und Kayvan Soufi-Siavash ansage.org/der-nahost-konflikt… Paul Brandenburg, Milena Preradovic, Kayvan Soufi-Siavash: Brillante Stimmen der Gegenöffentlichkeit – doch bei Israel reißen sie aus (Screenshots:Youtube) So anerkennenswert die kritisch-publizistische und aufklärerische Arbeit von Paul Brandenburg, Milena Preradovic


Resolution des EU-Parlaments zur Ukraine: Beschränkungen für den Einsatz westlicher Waffe aufheben apollo-news.net/resolution-des… Das EU-Parlament fordert die EU-Mitgliedsstaaten auf, der Ukraine den Einsatz von westlichen Waffen gegen militärische Ziele in Russland zu erlauben. ...
The post Resolution des EU-Parlaments zur Ukraine: Beschränkungen für den Einsatz westlicher Waffe aufheben appeared

Diese Webseite verwendet Cookies zur Erkennung von wiederkehrenden Besuchern und eingeloggten Nutzern. Durch die weitere Benutzung der Webseite akzeptierst du die Verwendung der Cookies.