Schlanke Struktur, fette Fähigkeiten: Die wahre Quelle von 100-facher KI-Produktivität
Originalartikel Titel: Dünne Struktur, fette Fähigkeiten
Originalartikel Autor: Garry Tan
Übersetzung: Peggy, BlockBeats
Hinweis des Herausgebers: Da "stärkere Modelle" zur Standardantwort in der Branche werden, bietet dieser Artikel eine andere Perspektive: Was die Produktivitätslücken um das 10-fache, 100-fache oder sogar 1000-fache wirklich vergrößert, ist nicht das Modell selbst, sondern ein ganzes Systemdesign, das um das Modell herum aufgebaut ist.
Der Autor dieses Artikels, Garry Tan, aktueller Präsident und CEO von Y Combinator, ist seit langem in der KI- und Frühphasen-Startup-Ökosystemen tätig. Er führt das Framework "fette Fähigkeiten + dünne Struktur" ein und zerlegt KI-Anwendungen in Schlüsselkomponenten wie Fähigkeiten, Laufzeitframework, Kontext-Routing, Aufgabenverteilung und Wissenskompression.
In diesem System ist das Modell nicht mehr die gesamte Fähigkeit, sondern lediglich eine Ausführungseinheit innerhalb des Systems. Was die Ausgabequalität wirklich bestimmt, ist, wie Sie den Kontext organisieren, Prozesse festigen und die Grenze zwischen "Inference" und "Berechnung" abgrenzen.
Noch wichtiger ist, dass dieser Ansatz nicht nur konzeptionell ist, sondern in realen Szenarien validiert wurde: Angesichts von Datenverarbeitungs- und Matching-Aufgaben von Tausenden von Unternehmern erreicht das System Fähigkeiten, die menschlichen Analysten nahekommen, durch einen "lesen-zusammenfassen-inferieren-zurückschreiben"-Zyklus, der sich kontinuierlich selbst optimiert, ohne dass Codeänderungen erforderlich sind. Dieses "Lernsystem" verwandelt KI von einem einmaligen Werkzeug in eine Infrastruktur mit einem Zinseszinseffekt.
Somit wird die zentrale Erinnerung, die im Artikel gegeben wird, klar: Im KI-Zeitalter werden Effizienzlücken nicht mehr dadurch bestimmt, ob Sie das fortschrittlichste Modell verwenden, sondern ob Sie ein System aufgebaut haben, das kontinuierlich Fähigkeiten ansammeln und sich automatisch weiterentwickeln kann.
Folgendes ist der Originaltext:
Steve Yegge sagte, dass diejenigen, die KI-Programmieragenten verwenden, "10 bis 100 Mal effizienter sind als Ingenieure, die nur mit einem Cursor und Chat-Tools programmieren, und ungefähr 1000 Mal effizienter als ein Google-Ingenieur von 2005."
Hinweis: Steve Yegge ist ein äußerst einflussreicher Softwareingenieur, technischer Blogger und Kommentator zur Ingenieurskultur im Silicon Valley, bekannt für seine scharfen, umfangreichen und stark meinungsstarken technischen Artikel. Er war als leitender Ingenieur bei Unternehmen wie Amazon und Google tätig, bevor er zu Salesforce wechselte, dann in Startups im Bereich KI ging und auch einer der frühen Befürworter des Dart-Projekts war.
Das ist keine Übertreibung. Ich habe es mit eigenen Augen gesehen und aus erster Hand erlebt. Wenn Menschen jedoch von einer solchen Kluft hören, führen sie sie oft auf die falschen Faktoren zurück: ein stärkeres Modell, einen intelligenteren Claude, mehr Parameter.
In Wirklichkeit verwenden die Person, die doppelt so effizient ist, und die, die hundertmal effizienter ist, dasselbe Modell. Der Unterschied liegt nicht in der "Intelligenz", sondern in der "Architektur", und diese Architektur ist so einfach, dass sie auf eine Notizkarte passt.
Das Harness (Ausführungsrahmen) ist das Produkt selbst.
Am 31. März 2026, in einer unerwarteten Wendung der Ereignisse, veröffentlichte Anthropic versehentlich den vollständigen Quellcode von Claude Code auf npm – insgesamt 512.000 Zeilen. Ich habe alles durchgelesen. Das bestätigte etwas, über das ich immer bei YC (Y Combinator) gesprochen habe: Das wahre Geheimnis liegt nicht im Modell, sondern in der "Schicht, die das Modell umgibt."
Echtzeit-Codebasis-Kontext, Prompt-Cache, Werkzeuge, die für spezifische Aufgaben entwickelt wurden, maximale Kompression redundanter Kontexte, strukturierter Sitzungs-Speicher, parallel laufende Unteragenten – keines dieser Dinge macht das Modell intelligenter. Aber sie können dem Modell den "richtigen Kontext" zur "richtigen Zeit" bieten, während sie vermeiden, von irrelevanten Informationen überwältigt zu werden.
Diese umschließende Schicht wird als Harness (Ausführungsrahmen) bezeichnet. Und die eigentliche Frage, die sich alle KI-Entwickler stellen sollten, ist: Was sollte in das Harness aufgenommen werden und was sollte draußen bleiben?
Interessanterweise hat diese Frage eine sehr spezifische Antwort – ein dünnes Harness, dicke Fähigkeiten.
Fünf Definitionen
Der Engpass lag nie in der Intelligenz des Modells. Das Modell weiß bereits, wie man schlussfolgert, Informationen synthetisiert und Code schreibt.
Sie scheitern, weil sie Ihre Daten nicht verstehen – Ihr Schema, Ihre Vereinbarungen, welche Form Ihr Problem annimmt. Und die folgenden fünf Definitionen sind genau darauf ausgelegt, dieses Problem zu adressieren.
1. Fähigkeitsdatei
Eine Fähigkeitsdatei ist ein wiederverwendbares Markdown-Dokument, das dem Modell beibringt, "wie man etwas tut." Beachten Sie, dass es ihm nicht sagt, "was zu tun ist" – dieser Teil wird vom Benutzer bereitgestellt. Die Fähigkeitsdatei bietet den Prozess.
Der entscheidende Punkt, den die meisten Menschen übersehen, ist dieser: Eine Fähigkeitsdatei ist tatsächlich wie ein Methodenaufruf. Sie kann Parameter annehmen. Sie können sie mit verschiedenen Parametern aufrufen. Der gleiche Prozess, wenn er mit unterschiedlichen Eingaben aufgerufen wird, kann ganz unterschiedliche Fähigkeiten demonstrieren.
Zum Beispiel gibt es eine Fähigkeit namens /untersuchen. Sie besteht aus sieben Schritten: Datenumfang definieren, Zeitachse erstellen, jedes Dokument diarieren, synthetisieren, von beiden Seiten argumentieren, Quellen zitieren. Sie benötigt drei Parameter: ZIEL, FRAGE und DATENSET.
Wenn Sie es auf einen Sicherheitsexperten und 2,1 Millionen forensische E-Mails richten, wird es sich in einen medizinischen Forschungsanalysten verwandeln, um festzustellen, ob ein Whistleblower unterdrückt wurde.
Wenn Sie es auf eine Briefkastenfirma und die Offenlegungsunterlagen der Federal Election Commission (FEC) richten, wird es sich in einen forensischen Ermittler für Rechtsstreitigkeiten verwandeln, um koordinierte politische Spenden zurückzuverfolgen.
Die gleiche Fähigkeit. Die gleichen sieben Schritte. Die gleiche Markdown-Datei. Die Fähigkeit beschreibt einen Entscheidungsprozess, und was ihn tatsächlich zum Leben erweckt, sind die Eingabeparameter zur Laufzeit.
Das ist kein Prompt-Engineering, sondern Softwaredesign: Hier ist Markdown die Programmiersprache, und menschliches Urteil ist die Laufzeitumgebung. Tatsächlich ist Markdown sogar besser für die Kapselung geeignet als starrer Quellcode, da es den Prozess, das Urteil und den Kontext beschreibt, die zufällig die Sprache sind, die das Modell am besten versteht.
2. Harness (Laufzeit-Framework)
Harness ist die Schicht von Software, die den Betrieb des LLM steuert. Es macht nur vier Dinge: das Modell in einer Schleife ausführen, Ihre Dateien lesen und schreiben, den Kontext verwalten und Sicherheitsvorgaben durchsetzen.
Das ist alles. Das ist "dünn."
Das entgegengesetzte Muster ist: dickes Harness, dünne Fähigkeiten.
Sie haben das wahrscheinlich schon gesehen: über 40 Tool-Definitionen, bei denen die Dokumentation allein die Hälfte des Bildschirms einnimmt; ein allmächtiges Gott-Tool, das 2 bis 5 Sekunden für den Hin- und Rückweg zum kontrollierbaren Datengenerator benötigt; oder das Einwickeln jedes Endpunkts einer REST-API in ein separates Tool. Das Ergebnis ist dreifache Token-Nutzung, dreifache Latenz und dreifache Fehlerrate.
Der wirklich ideale Ansatz ist die Verwendung von speziell entwickelten Tools, die schnell und eng fokussiert sind.
Zum Beispiel ein Playwright-CLI, das nur 100 Millisekunden für jede Browseroperation benötigt; nicht ein Chrome-MCP, das 15 Sekunden benötigt, um einen Screenshot zu machen → finden → klicken → warten → lesen. Ersteres ist 75 Mal schneller.
Moderne Software muss nicht mehr "über-engineered" sein. Was Sie tun sollten, ist: nur das zu bauen, was Sie wirklich brauchen, und nichts mehr.
3. Löser
Ein Löser ist im Wesentlichen eine Kontext-Routing-Tabelle. Wenn der Aufgabentyp X auftritt, wird Dokument Y prioritär geladen. Fähigkeiten sagen dem Modell, "wie man es macht"; Löser sagen dem Modell, "wann man was laden soll."
Zum Beispiel ändert ein Entwickler einen bestimmten Prompt. Ohne einen Löser könnte er die Änderung einfach abschließen und sofort veröffentlichen. Mit einem Löser würde das Modell zuerst die Datei docs/EVALS.md lesen. Dieses Dokument würde sagen: Führen Sie zuerst die Evaluierungssuite aus, vergleichen Sie die Ergebnisse vorher und nachher; wenn die Genauigkeit um mehr als 2 % sinkt, rollen Sie zurück und untersuchen Sie den Grund. Dieser Entwickler wusste möglicherweise nicht einmal von der Existenz der Evaluierungssuite. Es ist der Löser, der den richtigen Kontext zur richtigen Zeit lädt.
Claude Code kommt mit einem integrierten Löser. Jede Fähigkeit hat ein Beschreibungsfeld, und das Modell ordnet automatisch die Absicht des Benutzers der Beschreibung der Fähigkeit zu. Sie müssen nicht einmal daran denken, ob die /ship-Fähigkeit existiert – die Beschreibung selbst ist der Löser.
Um ehrlich zu sein, war mein vorheriges CLAUDE.md gewaltige 20.000 Zeilen lang. Jede Eigenheit, jedes Muster, jede Lektion, die ich gelernt hatte, war darin zusammengepresst. Völlig absurd. Die Qualität der Aufmerksamkeit des Modells hat erheblich abgenommen. Claude Code hat mir sogar direkt gesagt, ich solle es loswerden.
Die endgültige Lösung bestand wahrscheinlich nur aus 200 Zeilen – nur einige Dokumentverweise wurden beibehalten. Lassen Sie den Löser das notwendige Dokument im entscheidenden Moment laden. Auf diese Weise können 20.000 Wissenszeilen bei Bedarf abgerufen werden, ohne das Kontextfenster zu belasten.
4. Latent und Deterministisch
In Ihrem System gehört jeder Schritt entweder in diese Kategorie oder in jene. Und diese beiden zu verwechseln, ist der häufigste Fehler im Agentendesign.
· Der latente Raum ist der Ort, an dem Intelligenz residiert. Das Modell liest, versteht, beurteilt und entscheidet hier. Es befasst sich mit: Beurteilung, Synthese, Mustererkennung.
· Deterministisch ist der Ort, an dem Vertrauenswürdigkeit residiert. Gleicher Eingang, immer derselbe Ausgang. SQL-Abfragen, kompilierter Code, arithmetische Operationen gehören alle zu dieser Seite.
Ein einzelnes LLM kann Ihnen helfen, 8 Personen für ein Abendessen zu platzieren, wobei die Persönlichkeit und die sozialen Dynamiken jeder Person berücksichtigt werden. Wenn Sie es jedoch bitten, 800 Personen zu platzieren, wird es ernsthaft ein "scheinbar vernünftiges, aber tatsächlich völlig falsches" Sitzschema erstellen. Denn es handelt sich nicht mehr um einen potenziellen Raum, der bearbeitet werden muss, sondern um ein deterministisches Problem, das gewaltsam in den latenten Raum gepresst wurde – ein kombinatorisches Optimierungsproblem.
Die schlechtesten Systeme platzieren die Arbeit immer falsch auf einer der beiden Seiten dieser Grenze. Die besten Systeme hingegen werden die Grenze deutlich abgrenzen.
5. Diarisation (Dokumentenclustering / Themenporträt)
Dieser Diarisationsschritt verleiht der KI tatsächlich die Fähigkeit, Wert bei der Arbeit mit realem Wissen zu schaffen.
Das bedeutet: Das Modell liest alle Materialien zu einem Thema durch und erstellt dann ein strukturiertes Porträt. Urteile aus Dutzenden oder sogar Hunderten von Dokumenten auf einer einzigen Seite zusammenfassen.
Das ist nichts, was eine SQL-Abfrage erzeugen kann. Auch ist es nichts, was eine RAG-Pipeline erzeugen kann. Das Modell muss tatsächlich lesen, widersprüchliche Informationen gleichzeitig im Gedächtnis behalten, notieren, was sich geändert hat, wann es sich geändert hat, und dann diese Inhalte in strukturierte Intelligenz synthetisieren.
Das ist der Unterschied zwischen einer Datenbankabfrage und einem Analystenbriefing.
Diese Architektur
Diese fünf Konzepte können zu einer sehr einfachen Drei-Schichten-Architektur kombiniert werden.
· Die oberste Schicht sind Fat Skills: Prozesse, die in Markdown geschrieben sind und Urteile, Methoden und Fachwissen enthalten. 90 % des Wertes befinden sich in dieser Schicht.
· Die mittlere Schicht ist ein dünnes CLI-Framework: etwa 200 Zeilen Code, das JSON-Eingaben verarbeitet und Textausgaben erzeugt, standardmäßig im Nur-Lese-Modus.
· Die unterste Schicht ist Ihr Anwendungssystem: QueryDB, ReadDoc, Search, Timeline – das sind deterministische Infrastrukturen.
Das leitende Prinzip ist richtungsweisend: "Intelligenz" so hoch wie möglich in die Fähigkeiten drücken; "Ausführung" so weit wie möglich in deterministische Werkzeuge drücken; das Framework leicht halten.
Das Ergebnis ist: Jedes Mal, wenn sich die Fähigkeiten des Modells verbessern, werden alle Fähigkeiten automatisch stärker; während die grundlegenden deterministischen Systeme stabil und zuverlässig bleiben.
Lernsysteme
Im Folgenden werde ich ein reales System verwenden, das wir bei YC aufbauen, um zu zeigen, wie diese fünf Definitionen zusammenarbeiten.
Im Juli 2026, Chase Center. Die Startup School hat 6000 Gründer anwesend. Jeder hat strukturierte Bewerbungsunterlagen, Antworten auf Fragebögen, Transkripte von 1:1-Mentorgesprächen und öffentliche Signale: Beiträge auf X, GitHub-Commit-Historie und Nutzung von Claude Code (was ihre Entwicklungsgeschwindigkeit anzeigt).
Der traditionelle Ansatz besteht darin, dass ein 15-köpfiges Projektteam die Bewerbungen nacheinander liest, intuitive Urteile fällt und dann eine Tabelle aktualisiert.
Diese Methode kann mit 200 Personen funktionieren, aber sie scheitert vollständig bei 6000 Personen. Kein Mensch kann so viele Profile im Kopf behalten und erkennen, dass die KI-Agenten-Infrastruktur die drei besten Kandidaten für die Richtung vorschlägt: den Gründer eines Entwicklungstools in Lagos, einen Compliance-Unternehmer in Singapur und einen CLI-Tool-Entwickler in Brooklyn – jeder von ihnen hat in verschiedenen 1:1-Gesprächen denselben Schmerzpunkt mit völlig unterschiedlichen Ausdrücken beschrieben.
Das Modell kann es tun. So funktioniert es:
Anreicherung
Es gibt eine Fähigkeit namens /enrich-founder, die aus allen Datenquellen zieht, Anreicherung, Diarisierung durchführt und den Unterschied zwischen "was der Gründer gesagt hat" und "was sie tatsächlich tun" hervorhebt.
Das zugrunde liegende deterministische System verarbeitet: SQL-Abfragen, GitHub-Daten, Browser-Tests von Demo-URLs, Extraktion sozialer Signale, CrustData-Abfragen usw. Eine geplante Aufgabe läuft einmal am Tag. Die Profile von 6000 Gründern sind immer auf dem neuesten Stand.
Die Ausgabe der Diarisierung kann Informationen erfassen, die durch Schlüsselwortsuchen niemals gefunden werden könnten:
Gründer: Maria Santos Unternehmen: Contrail (contrail.dev) Selbstbeschreibung: "Datadog für KI-Agenten" Tatsächliche Aktivität: 80 % der Code-Commits konzentrieren sich auf das Abrechnungsmodul → Im Wesentlichen wird ein FinOps-Tool als Observability-Tool getarnt.
Dieser Unterschied zwischen "was gesagt wird und was getan wird" erfordert es, GitHub-Commit-Historien, Bewerbungsunterlagen und Gesprächsprotokolle gleichzeitig zu lesen und sie mental zu integrieren. Keine Einbettungsähnlichkeitssuche oder Schlüsselwortfilterung kann dies erreichen. Das Modell muss alles vollständig lesen und dann Urteile fällen. (Das ist genau die Art von Aufgabe, die im latenten Raum sein sollte!)
Übereinstimmung
Hier zeigt sich, wo "Fähigkeit = Methodenaufruf" glänzt.
Mit der gleichen Übereinstimmungsfähigkeit kann das dreimalige Aufrufen zu völlig unterschiedlichen Strategien führen:
/match-breakout: Verwaltung von 1200 Personen, gruppiert nach Bereich, jeweils 30 Personen (Einbettung + deterministische Zuordnung)
/match-lunch: Verwaltung von 600 Personen, bereichsübergreifende "randomisierte Zuordnung," 8 Personen pro Tisch ohne Wiederholung — LLM generiert zuerst Themen, dann arrangiert ein deterministischer Algorithmus die Plätze
/match-live: Verwaltung von live anwesenden Teilnehmern, basierend auf der nächsten Nachbar-Einbettung, vollständige 1-zu-1-Zuordnung innerhalb von 200 ms und Ausschluss von Personen, die sich bereits getroffen haben
Das Modell kann auch Urteile fällen, die traditionelle Cluster-Algorithmen nicht erreichen können:
"Sowohl Santos als auch Oram fallen unter die KI-Infrastruktur, aber sie stehen nicht in einer Wettbewerbsbeziehung — Santos macht Kostenattribution, Oram macht Orchestrierung. Sie sollten in die gleiche Gruppe eingeordnet werden."
"Die Bewerbung von Kim nannte Entwicklerwerkzeuge, aber das 1:1-Gespräch ergab, dass sie an der Automatisierung der SOC2-Compliance arbeiten. Sollte unter FinTech / RegTech neu klassifiziert werden."
Diese Art der Neuklassifizierung wird von Einbettungen völlig verpasst. Das Modell muss das gesamte Profil lesen.
Lernschleife
Nach der Veranstaltung liest eine /verbessern Fähigkeit die Ergebnisse der NPS-Umfrage, führt eine Diarisierung der Rückmeldungen durch, die als "okay, könnte aber besser sein" kategorisiert sind — nicht negative Bewertungen, sondern solche, die fast dort sind — und extrahiert Muster.
Es schlägt dann neue Regeln vor und schreibt sie in die Übereinstimmungsfähigkeit zurück:
Wenn ein Teilnehmer "KI-Infrastruktur" erwähnt, aber über 80 % seines Codes für die Abrechnung verwendet:
→ Als FinTech kategorisiert, nicht als KI-Infrastruktur
Wenn zwei Personen in derselben Gruppe sich bereits kennen:
→ Reduziere das Matching-Gewicht
Priorisiere die Einführung neuer Beziehungen
Diese Regeln werden in die Skill-Datei zurückgeschrieben. Sie treten automatisch beim nächsten Durchlauf in Kraft. Fähigkeiten sind "selbstbearbeitend." Bei der Veranstaltung im Juli machten die Bewertungen "okay, könnte besser sein" 12 % aus; bei der nächsten Veranstaltung fiel dieser Wert auf 4 %.
Die Skill-Datei lernt, was "okay" bedeutet, und das System verbessert sich, ohne dass jemand den Code umschreibt.
Dieses Muster kann in jedes Feld migriert werden:
Abrufen → Lesen → Protokollieren → Zählen → Synthesizieren
Dann: Forschung → Untersuchen → Protokollieren → Skill umschreiben
Wenn Sie fragen würden, was die wertvollste Schleife von 2026 ist, dann ist es diese. Es kann auf fast jedes Wissensarbeits-Szenario angewendet werden.
Fähigkeit ist ein permanentes Upgrade
Ich habe kürzlich einen Befehl an OpenClaw auf X gepostet, der eine viel größere Resonanz erhielt als erwartet:
Aufforderung: Es ist Ihnen nicht erlaubt, einmalige Arbeiten zu erledigen. Wenn ich Sie bitte, etwas zu tun, das in der Zukunft wiederholt wird, müssen Sie: beim ersten Mal manuell 3 bis 10 Proben verarbeiten, mir die Ergebnisse zeigen; Wenn ich zustimme, verwandeln Sie es in eine Skill-Datei; Wenn es automatisch laufen soll, fügen Sie es zur geplanten Aufgabe hinzu. Das Kriterium ist: Wenn ich ein zweites Mal fragen muss, haben Sie versagt.
Dieser Inhalt erhielt Tausende von Likes und über zweitausend Lesezeichen. Viele Menschen dachten, dies sei eine Technik des Prompt Engineerings.
Tatsächlich ist es das nicht. Es ist die oben erwähnte Architektur. Jede Fähigkeit, die Sie schreiben, ist ein permanentes Upgrade des Systems. Es wird nicht abgebaut, wird nicht vergessen. Es wird automatisch um drei Uhr morgens ausgeführt. Und wenn das nächste Generation Modell veröffentlicht wird, werden alle Fähigkeiten sofort stärker—die Urteilskraft des latenten Teils verbessert sich, während der deterministische Teil stabil und zuverlässig bleibt.
Hierher stammt die 100-fache Effizienz von Yegge.
Nicht von intelligenteren Modellen, sondern von: Dicken Fähigkeiten, dünnen Halterungen und der Disziplin, alles in Fähigkeiten zu festigen.
Das System wird exponentiell wachsen. Einmal bauen, langfristig laufen.
Das könnte Ihnen auch gefallen

Soeben wurde Sam Altman erneut angegriffen, diesmal mit Schüssen.

Von hohen Erwartungen zu umstrittenen Wendungen, Genius Airdrop löst Gegenreaktionen in der Community aus

Die Xiaomi-Fabrik für Elektrofahrzeuge im Pekinger Bezirk Daxing ist zum neuen Jerusalem für die amerikanische Elite geworden.

Ultraman hat keine Angst vor einem Angriff auf sein Anwesen; er hat eine Festung.

Die Verhandlungen zwischen den USA und dem Iran sind gescheitert, Bitcoin muss um die Verteidigung der 70.000-Dollar-Marke kämpfen.

Blockade der Meerenge, Stablecoin-Zusammenfassung | Rewire News Morgenausgabe

Reflexionen und Verwirrungen eines Krypto-Venture-Capital-Gebers

Morgennachrichten | Ether Machine beendet SPAC-Deal über 1,6 Milliarden US-Dollar; SpaceX hält Bitcoin im Wert von ca. 603 Millionen US-Dollar; Michael Saylor veröffentlicht erneut Bitcoin-Tracker-Informationen

Crypto ETF Weekly | In der vergangenen Woche beliefen sich die Nettozuflüsse bei Bitcoin-Spot-ETFs in den USA auf 816 Millionen US-Dollar; die Nettozuflüsse bei Ethereum-Spot-ETFs in den USA betrugen 187 Millionen US-Dollar

Wochenvorschau | Die USA veröffentlichen die Erzeugerpreisdaten für März; der französische Präsident Macron hält eine Rede auf der Pariser Blockchain-Woche

Wie funktioniert die Selbstverwahrung digitaler Vermögenswerte? 15-Punkte-Checkliste des OpenAI-Mitbegründers

Leiter Produktmanagement bei Circle: Die Zukunft der Cross-Chain-Integration: Aufbau eines Interoperabilitäts-Technologie-Stacks für Internet-Finanzsysteme
UCL Fan Tokens 2026 Leitfaden: Wie man UEFA Champions League-Kryptowährung gebührenfrei auf WEEX handelt
Entdecke UCL-Fan-Tokens wie die von PSG, Barcelona und Man City. Lerne, wie du mit Kryptowährungen der UEFA Champions League gebührenfrei handeln und auf WEEX Prämien verdienen kannst.
WEEX Poker Party Saison 2: Überprüfen Sie jetzt, wie Sie Krypto-Belohnungen verdienen können!
Erfahren Sie, wie die WEEX Poker Party Saison 2 (Joker-Karten-Event) funktioniert. Entdecken Sie die Regeln, Punktzahlen, Belohnungen und Strategien, um Krypto-Belohnungen durch gamifiziertes Trading zu verdienen.

Yu Weiwen: Stetige Entwicklung des konformen Stablecoin-Ökosystems in Hongkong

Nach TACO-Waffenruhe ist Iran-Krieg nur noch Pause

Das 17-jährige Rätsel wird gelöst, wer ist Satoshi Nakamoto?

