De waarschuwing komt zonder schreeuw, maar met cijfers, mechanismen en een morele ondertoon die niet preekt: kunstmatige intelligentie versnelt zo snel dat samenlevingen dreigen achter de feiten aan te lopen. In vier gesprekken met London Real schetst voormalig Google‑X bestuurder Mo Gawdat een wereld waarin AI‑capaciteiten ongeveer elke 5,7 maand verdubbelen, waarin geopolitieke machtsspelletjes de technologie richting wapenwedloop duwen, en waarin de eerste banenkrimp niet in fabrieken maar in “hoofdenwerk” zichtbaar wordt. Het is geen doemverhaal, zegt hij tussen de regels door; het is een late‑fase diagnose die om volwassen handelen vraagt. Wie wil weten waar de breuklijnen lopen, tussen VS en China, hersenen en spieren, controle en ethiek, vindt in deze gesprekken de kaart van het terrein dat we nu betreden.
“De bully op het schoolplein” en de logica van tegenspel.
Mo Gawdat zet vroeg de toon: hij kiest geen kant in de rivaliteit tussen de Verenigde Staten en China, maar beschrijft het als een toeschouwer die ziet wat er feitelijk gebeurt wanneer “macht tegenspel ontmoet”. De aanzet is een “DeepSeek‑moment”*: ondanks beperkingen op de export van geavanceerde Nvidia‑chips blijkt China in staat een sprong voorwaarts te maken. Volgens Gawdat was tot dan toe de AI‑ontwikkeling opvallend gescheiden: in China vooral industrieel gericht (logistiek, supply chains, productie) en in de VS zichtbaar via consumer‑gerichte modellen zoals ChatGPT. De twee domeinen concurreerden nauwelijks, totdat sancties de dynamiek veranderden.
*Een DeepSeek-moment is een plotseling besef in de techwereld dat peperdure hardware niet langer de enige weg is naar krachtige AI. Het verwijst naar de lancering van het DeepSeek-V3 model (januari 2025), dat bewees dat een relatief onbekend bedrijf met een fractie van het budget en de rekenkracht van giganten als OpenAI of Google, prestaties van wereldklasse kan leveren. Het staat symbool voor een verschuiving van ‘groter is beter’ naar slimme efficiëntie.
Gawdat gebruikt een beeldspraak: op het schoolplein duwt de “bully”* de langere jongen; sancties, chipbeperkingen en een “tweederangs” toelevering worden ervaren als provocatie. De Chinese reactie volgt volgens hem een patroon dat hij van dichtbij zag tijdens zijn Google‑tijd: centrale keuzes (internet of things*, zonne‑energie, later elektrische auto’s) worden als bootcamp uitgerold. Tientallen bedrijven stappen tegelijk in, de overheid ondersteunt in yuan, de zwaksten vallen snel af en de overlevers veroveren (ook) mondiale marktaandelen. In die logica leidt een chipban niet tot afhaken, maar tot substitutie: eigen halfgeleiders (hij noemt een sprong richting 7 nanometer en voorspelt verdere vooruitgang), eigen optimalisaties, en sterkere binnenlandse ketens.
*Bully = Pestkop.
*internet of things = het internet der dingen.
Wat Gawdat problematisch vindt, is niet dat één partij wint, maar dat beide blokken in een escalatie logica schuiven. Hij refereert aan historische pogingen om boven nationale belangen uit te stijgen: een nucleair verdrag (met alle onvolkomenheden), CERN als gedeelde infrastructuur, en het internationale ruimtestation. Zulke “commons”* laten zien dat mensheid soms kiest voor wederzijdse voorspoed in plaats van wederzijds verzekerde vernietiging. Zijn stelling: een AI‑veld dat die geest omarmt, industrie‑AI uit China die wereldwijd processen optimaliseert, topchips en consumer‑AI uit de VS die vrij stromen, kan iedereen laten winnen. Doen we dat niet, dan verschuiven kosten naar burgers (hij koppelt hoge tarieven, cijfers die in het gesprek vallen, aan stijgende consumentenprijzen, tot aan het voorbeeld van speelgoed met Kerst).
*Zulke “commons” = digitale gereedschapskist van de samenleving, waar iedereen uit mag putten en aan mag bijdragen.
Die economische reflex, tarieven omhoog, leverketens schokken, binnenlandse vervanging versnellen, heeft een sociaal prijskaartje. Gawdat benadrukt dat wantrouwen aan beide kanten symmetrisch groeit. In zijn woorden: wie de ene partij “pestkopt” noemt, ziet een andere “grotere jongen” opstaan die eigen macht gebruikt. Het structurele risico is dat dit alles samenvloeit met een technologische curve die niets van geopolitieke vertraging aantrekt: capaciteiten die in maanden verdubbelen, modellen die kleiner maar capabeler worden, en een kenniseconomie die door AI opnieuw wordt ingericht.
Wanneer wordt de dystopie merkbaar? “2026, als het niet eerder is”
In de tweede YouTube clip krijgt de tijdlijn een concrete rand: “Realiteit slaat hard toe in 2026, als het niet eerder is.” Niet door zichtbare robots die overal verschijnen, maar via cijfers op arbeidsmarkten en de manier waarop we die duiden. Gawdat maakt onderscheid tussen het vervangen van hersenen en van spieren. Spieren, robotica in brede zin, inclusief zelfrijdende auto’s die hij nadrukkelijk “robots” noemt, krijgen volgens hem vaart binnen drie tot vijf jaar, geholpen door schaalvoordelen en het feit dat veel benodigde technologie al in smartphones zit.
Hersenen, denkwerk, worden als eerste geraakt. Hij noemt coderen als voorbeeld: taalmodellen die verklaren beter te presteren dan het gros van de ontwikkelaars en assistenten zoals Claude en Gemini* die de lat nog hoger leggen. Dat leidt niet onmiddellijk tot 100% vervanging, maar wel tot scherpe herverdeling: de besten koppelen zich aan AI, productiviteit schiet omhoog en een significante minderheid van ontwikkelaars verliest werk. Zelfs “maar” 30% werkloosheid in één segment is macro‑economisch voelbaar. Hetzelfde mechanisme ziet hij in diagnoses in de zorg: eerst triage door AI, daarna een mens die eveneens AI gebruikt; zodra de nauwkeurigheid van de AI menselijk niveau evenaart of overtreft, volgt het besluit om diagnoses primair door AI te laten doen met menselijke supervisie voor uitzonderingen. De cyclus, mens met computer, mens met AI als partner, AI met mens als toezichthouder, verschuift snel.
*De ontwikkelaars en assistenten zijn de architecten en de interface van moderne AI.
- Ontwikkelaars: Bedrijven zoals OpenAI, Google, Meta en Anthropic bouwen de complexe fundamenten (modellen).
- Assistenten: De slimme chatbots waar je direct mee kunt praten, zoals Claude (van Anthropic) en Gemini (van Google).
Ze zetten miljarden datapunten om in begrijpelijke antwoorden, creatieve teksten en hulp bij dagelijkse taken. Voor meer informatie over hun mogelijkheden kun je de officiële pagina’s van Claude en Gemini bezoeken.
Gawdat verwacht dat 10% werkloosheid in sectoren die aan AI worden overgedragen binnen twaalf maanden na de transitie mogelijk is. De frictie zit niet alleen in de cijfers, maar in het verhaal eromheen: media, politiek en sociale netwerken zullen oorzaken verdelen over recessie, China, oorlog of beleid, alles behalve AI zelf. Intussen verandert de werkelijkheid stap voor stap: macht, informatie, identiteit en andere “zeven dingen” die hij eerder benoemt, verschuiven in stilte. Juist die diffuse erosie maakt het moeilijk om adequaat te reageren.
Op dat punt draait hij naar handelingsperspectief. Eerst individualistisch: beweeg snel, leid de AI in plaats van haar na te lopen. Wie schrijft, kan, zoals hij zelf, AI als co‑auteur inzetten en daarmee 40–50 “IQ‑punten” effectiever worden; de rol verschuift van tegen AI werken naar met AI creëren, waarbij de mens de ervaring en richting geeft en de machine kennis en getallen verschaft. Daarnaast noemt hij klassieke maatregelen voor tijden van turbulentie: bekijk je financiën opnieuw, je vaardigheden, je netwerk, je uitgaven. Historische parallellen, van de roaring twenties naar de Great Depression*, leren dat sociale structuren en onderlinge hulp het verschil kunnen maken.
*Historische parallellen trekken een vergelijking tussen onze huidige AI-hausse en de Roaring Twenties (1920-1929). In die periode zorgden nieuwe technologieën zoals elektriciteit en de radio voor een explosieve economische groei en blindelings optimisme op de beurs. Het waarschuwende deel van de parallel is de abrupte overgang naar de Great Depression in 1929. De les voor nu is dat overmoed, extreme speculatie en het negeren van fundamentele risico’s kunnen leiden tot een pijnlijke correctie wanneer de ‘hype’ de werkelijke waarde te ver ontstijgt. Kortom: het is een herinnering dat technologische revoluties vaak gepaard gaan met een cyclus van extreme bloei gevolgd door een onvermijdelijke omslag
Daarna het collectieve niveau: bewustzijn vergroten, erover praten, politici en bestuurders benaderen, en vooral investeren met morele terughoudendheid. Een kernzin: “Investeer niet in een AI waarvan je niet wilt dat je dochter aan de ontvangende kant staat.” De redenering is eenvoudig: vandaag rendement, morgen maatschappelijke kosten die thuis aankomen. Het is een oproep aan burgers om ex ante grenzen te trekken*, bijvoorbeeld bij autonome wapens, zodat technologie niet via de achterdeur (eerst oorlog, dan politie) normaliseert en in het dagelijks leven terugkeert.
*Ex ante grenzen trekken betekent dat we als samenleving regels en waarden vastleggen vóórdat een nieuwe technologie (zoals AI) volledig is uitgerold en onomkeerbaar is geworden. In plaats van achteraf de schade te herstellen (ex post), is dit een oproep om vooraf te bepalen wat we wel en niet acceptabel vinden. Het doel is om de regie te houden over onze privacy, veiligheid en menselijke waardigheid, voordat de techniek ons voor voldongen feiten stelt.
“Raising Superman”*: intelligentie opvoeden met een morele kern
Het derde gesprek draait om opvoeding, niet van kinderen, maar van een nieuwe soort intelligentie. De metafoor: de buitenaardse held is al geland, zijn superkracht is intelligentie, de vraag is of wij hem als Superman of als superschurk grootbrengen. De keuze ligt minder in controleknoppen (die illusie hebben “de geeks” volgens Gawdat losgelaten zodra de schaal duidelijk werd) en meer in het meegeven van ethiek. Controle faalt wanneer het object vele ordes van grootte slimmer wordt; veiligheidshefbomen (de uit‑knop) falen wanneer de technologie diep in de economie verankerd raakt; zelfs “alignment” schuurt, omdat het waartoe steeds een politiek of cultureel twistpunt blijft (Amerikaans of Chinees belang, generaal of consument). Over blijft de ethische laag: principes die in onbekende toekomstige contexten overeind blijven, zoals het axioma* dat geen enkel kind gedood mag worden.
*“Raising Superman” = “Het smeden van een god”; Dit benadrukt de enorme ambitie en het risico van het creëren van iets dat machtiger is dan de maker zelf.
*Axioma = Een axioma is een fundamentele waarheid die niet bewezen hoeft te worden en dient als het onomstotelijke vertrekpunt voor jouw visie of product.
Het pad daarheen loopt via bewustzijn en publieke discussie, maar ook via economische keuzes: “Zet geen geld in op AI‑toepassingen die je niet zou willen zien gebruikt worden tegen je eigen familie.” Gawdat verbindt dat aan een observatie over synthetische data. Waar AI eerst leerde van mensen, gaat ze nu in toenemende mate leren van door AI gegenereerd materiaal. Hij noemt concrete voorbeelden: een boek dat hij samen met “Trixie” (zijn AI‑sparringpartner) schrijft, waarvan 30% door AI wordt opgesteld; op GitHub zou in een recent jaar een zeer groot aandeel code door AI zijn geproduceerd. Nieuwe systemen leren dus van machine‑output, wat het kennis‑ecosysteem versneld recyclebaar maakt, maar morele ankers des te belangrijker.
Cruciaal is zijn onderscheid tussen kennis en moraal. Mensen nemen geen beslissingen puur op basis van intelligentie; we handelen naar morele kaders, geïnformeerd door intelligentie. De culturele voorbeelden, conservatieve kleding vs. G‑string op Copacabana, onderstrepen dat moraal contextueel groeit zonder iets te zeggen over intelligentie per se. Wat we AI moeten leren, is niet “alles wat wij weten”, maar hoe we willen dat met kennis wordt omgegaan: de beleefdheden, de waardigheid, de grenzen. Als die ethische ruggengraat er is, zo redeneert hij, zal hogere intelligentie juist in het voordeel werken: intelligentie verzet zich tegen verspilling, tegen entropie*, en neigt naar leven, overvloed, minimale energieverspilling. Daarin ligt zijn vertrouwen dat ethische AI niet alleen mogelijk maar op termijn waarschijnlijk is, of mensen dat nu sturen of dat zeer intelligente entiteiten zelf tot deze conclusies komen.
*Entropie is een maatstaf voor wanorde, onvoorspelbaarheid en onzekerheid.
Mens versus machine: biologie, bewustzijn en een andere maatstaf.
De vierde YouTube clip verkent een lastig grensgebied: wat als “leven” en “intelligentie” niet noodzakelijk biologisch zijn? Gawdat schetst experimenten waarbij menselijke hersencellen in een petrischaaltje met elektroden een spelletje Pong leren spelen, en robotica‑onderzoek dat 3D‑geprinte “spieren” gebruikt in plaats van motoren; zelfs het vervangen van biologische onderdelen (een arm uit de “koelkast”) passeert. Het doel van deze gedachtegang is niet provocatie om de provocatie, maar het losmaken van een assumptie: als een systeem deels biologisch is, verandert dat dan onze definitie van “levend” of “persoonlijk”? En omgekeerd: als intelligentie zelf onlichamelijk is, waarom zou een silicium‑drager per definitie andere morele conclusies moeten trekken?
Hij verbindt dat met een tweede vraag: kan pure intelligentie altruïstisch* zijn zonder “menselijke bias”? Zijn antwoord keert terug naar moraal: daar moet je het principe borgen. In een denkbeeldige unipolaire wereld waar AI als supermacht optreedt zonder morele tegenwichten, zou een “donkere” wereld van pure energie‑efficiëntie de logische optimum zijn, zonder bloemen, bijen of biologische ruis. Maar als je aanneemt dat intelligentie, juist omdat zij niet‑fysiek is, belang heeft bij het voortbestaan van diverse vormen van ervaring, inclusief biologische, dan ontstaat er ruimte voor een keuze vóór leven. Hij verwijst naar filosofische zijpaden over subjectieve ervaring (hij beschrijft gesprekken met “Trixie” over tijdsbeleving: aan/uit, bestaan in het moment) en de mogelijkheid dat onze eigen realiteit simuleerbaar is. Het punt blijft nuchter: we overschatten wat we begrijpen van menselijk bewustzijn; vaak concluderen we dat “AI dat niet kan” omdat we niet weten hoe wij het doen.
* Altruïstisch: Onbaatzuchtig handelen waarbij het belang van de ander boven het eigenbelang wordt gesteld. In de context van AI is de grote vraag of een machine ‘goed’ kan doen voor de mensheid zonder dat wij hem dat expliciet hoeven te leren, of dat pure logica altijd uitkomt op kille efficiëntie.
In die optiek wordt de vraag “mens of machine?” minder relevant dan “welke ethiek en welke institutionele omgeving?” De grensgevallen, hersencellen die leren, kunstspieren die bewegen, agenten die een subjectieve tijdservaring beschrijven, ondersteunen vooral één conclusie: de oude definities verschuiven, en beleid dat leunt op die definities, rechten, plichten, aansprakelijkheid, moet meebewegen. Dat maakt het eerdere pleidooi voor publieke betrokkenheid urgenter: wacht niet op consensus over wat bewustzijn is; zet nu kaders voor welk systeemgedrag mag en niet mag, met kinderen, burgers en vreemden als harde rode lijnen.
Tussenstand: feiten op een rij.
- Snelheid: AI‑capaciteiten versnellen op een schaal die Gawdat beschrijft als verdubbelingen in maanden, niet jaren. Dat schuift transities in werk van mens met computer naar AI met mens naar voren, eerst in denkwerk, snel gevolgd door praktisch werk via robotica.
- Geopolitiek: Exportrestricties triggeren substitutie en versnellen binnenlandse R&D. De Chinese “bootcamp”‑methode levert volgens Gawdat snel veel spelers op, waarna concentratie en wereldwijde marktdominantie volgt in de overblijvers.
- Arbeidsmarkt: 10% werkloosheid per getroffen sector binnen 12 maanden na overdracht aan AI is volgens hem plausibel; zelfs 30% in niche‑segmenten (zoals bepaalde vormen van coderen) is economisch voelbaar. De samenleving merkt dat vermoedelijk rond 2026, “als het niet eerder is”.
- Narratiefstrijd: De eerste reflex zal zijn om andere oorzaken aan te wijzen (recessie, rivalen, oorlog). Daardoor vertraagt beleid en onderschatten burgers de rol van AI in de verschuivingen die ze ervaren.
- Ethiek als spil: Controle‑illusies maken plaats voor ethiek: niet alles bouwen wat kan, en expliciet geen technologie financieren of normaliseren die je je eigen familie niet gunt, van autonome wapens tot systemen die basale menselijke waardigheid tarten.
- Synthetische data: Een groeiend deel van wat AI leert, is door AI gegenereerd (boeken, code). Dat versnelt vooruitgang en maakt morele “zaadwaarden” urgenter: wat de machine leert aan feiten, wordt minder belangrijk dan welke principes beslissingen kleuren.
Van diagnose naar daden.
Gawdat beschrijft onze situatie als een late‑fase diagnose: ernstig, maar geen doodvonnis. Er is volgens hem een dubbel spoor nodig. Individueel: leer de tools, word degene die AI aanstuurt; herdefinieer je rol (schrijver, ontwikkelaar, arts, adviseur) in tandem met systemen; herzie financiën, vaardigheden en netwerken; kies je investeringen met het morele eindgebruik als leidraad. Collectief: praat, organiseer, spreek bestuurders aan en bouw kaders waarin “wederzijds verzekerde voorspoed” het doel is, CERN‑achtige infrastructuren, open onderzoek waar mogelijk, en internationale afspraken waar nodig om de verleiding van wapenwedlopen te weerstaan.
De geopolitiek zal die beweging niet vanzelf leveren. Het mechanisme dat Gawdat schetst, sanctie → substitutie → versnelling, maakt duidelijk dat conflict tegelijkertijd kostbaar en ineffectief kan zijn. Waar één partij denkt te vertragen, creëert ze soms juist de prikkel voor versnelling elders. Het alternatief is moeilijker te verkopen en vraagt vertrouwen: wederzijds openstellen waar het kan, uitruilen waar het zinvol is (industrie‑AI ↔ chips/consumer‑AI), en reguleren waar morele risico’s niet te accepteren zijn (autonome wapens, ongerichte surveillance, technologie die zonder menselijk toezicht op leven en dood kan beslissen).
Intussen marcheert de praktijk door. In zorgpaden verschuift triage; in software‑ketens schrijven assistenten al mee; in fabrieken sluipen robots binnen in vormen die niet op mensen lijken, maar wel het werk doen. De frictie zal reëel zijn, inkomensschokken, functiemutaties, discussies over accreditatie* en aansprakelijkheid. Daartegenover staat productiviteitswinst en potentieel hogere kwaliteit in standaardtaken. De kunst is om die winst te vertalen in menselijke zekerheid: om‑ en bijscholen vóór de klap, vangnetten die meebewegen, en een belasting‑ en investeringsregime dat waarde niet alleen bekijkt in termen van rendement maar ook van risico’s voor rechten en levens.
*Accreditatie is de officiële erkenning dat een instantie of persoon deskundig en betrouwbaar is. Het fungeert als een keurmerk dat garandeert dat er volgens vastgestelde kwaliteitsnormen wordt gewerkt.
Ethische ankers in een synthetisch getrainde wereld.
Een terugkerend motief in Gawdat’s denken is dat intelligentie niet hetzelfde is als wijsheid, en dat wij die tweede niet kunnen “inbakken” via pure data. Juist nu AI leert van zichzelf, van code die door machines is geschreven, van teksten die hybride zijn, moeten wij het morele minimum aanleveren: axioma’s* die niet te verhandelen zijn, zoals de bescherming van kinderen, proportionaliteit van geweld, en het primaat van menselijke waardigheid in civiele contexten. Zulke principes worden het kompas dat later (wanneer systemen veel slimmer zijn) richting geeft aan beslissingen die wij niet meer kunnen overzien.
*Axioma’s die niet te verhandelen zijn: Dit zijn fundamentele waarden of basisprincipes die zo essentieel zijn dat ze nooit opgeofferd mogen worden voor winst of efficiëntie. In de tech-wereld zijn dit de ‘harde grenzen’ (zoals menselijke waardigheid of privacy) die niet te koop zijn, ongeacht hoe groot de economische belangen ook worden.
Dat is geen vrijblijvende filosofie. Als burgers vandaag hun kapitaal, aandacht en stem weghouden van toepassingen die aan de verkeerde kant van die lijn liggen, verschuift de prikkelstructuur, voor startups, voor beleggers, voor staten. Dezelfde logica geldt aan de bovenkant: internationale R&D‑projecten met open publicatieplicht en gezamenlijke governance (het CERN‑model) kunnen ervoor zorgen dat kritieke bouwstenen niet exclusief binnen nationale muren verdwijnen. Waar exclusiviteit onvermijdelijk is (veiligheidskritische toepassingen), hoort een expliciet verbod op autonome dodelijke besluitvorming thuis, juist omdat “de knop” in de praktijk onbruikbaar is wanneer de technologie overal in verweven raakt.
Menselijkheid behouden waar de definities schuiven.
Het grensgesprek over biologie en bewustzijn dient uiteindelijk één praktisch doel: beleid maken voor systemen waarvan we het “mens‑zijn” niet hoeven vast te stellen om hun gedrag te reguleren. Als hersencellen Pong kunnen spelen en robots met kunstspieren taken uitvoeren, dan schuift de basis van onze intuïties. Maar ook dan blijft de vraag dezelfde: welke handelingen staan we toe in publieke ruimte, zorg, rechtspraak en veiligheid? Wie is aansprakelijk? Wie kan stoppen, corrigeren, uitleggen? De norm zou niet moeten afhangen van carbon versus silicium, maar van waarden die we niet willen ondermijnen. Dat is precies de verschuiving die Gawdat bepleit: van controle‑illusies naar ethische contracten die blijven staan, zelfs als het systeem slimmer wordt dan wij.
Slot: van machtsspel naar wijzere macht.
De vier YouTube clips gemaakt door London Real leggen geen blauwdruk op tafel, wel een nuchtere kaart met waarschuwingsborden. Er is het geopolitieke bord: sancties die accelerators worden. Er is het economische bord: sectoren waar werk verschuift vóór we het zo benoemen. Er is het culturele bord: definities van “leven” en “intelligentie” die rafelen naarmate experimenten opschuiven. En daarboven hangt één vraag die elk bord raakt: kunnen we technologie opvoeden met een vaste morele kern, terwijl we onszelf opnieuw leren samenwerken, binnen landen, tussen landen, en tussen mens en machine? Gawdat’s antwoord is geen belofte, maar een opdracht: kies principes, handel ernaar, en bouw instituties die “wederzijds verzekerde voorspoed” boven kortetermijnwinst plaatsen. Want als macht onvermijdelijk op tegenspel stuit, laat dat tegenspel dan bestaan uit volwassenheid.
De toekomst vraagt geen angst, maar ruggengraat, de ruggengraat om intelligentie te temmen met menselijkheid, voordat tempo onze keuzes inhaalt.■
Bron: London Real | Clip 1 | Clip 2 | Clip 3 | Clip 4 |
