Ontdek Ray Kurzweils langetermijnvoorspellingen over AGI: zijn tijdlijnen, voorspellingsaanpak, treffers en missers, kritieken en welke signalen je het beste kunt volgen.

Ray Kurzweil is een van de bekendste stemmen op het gebied van langetermijn technologievoorspelling—vooral rond kunstmatige intelligentie en de technologische singulariteit. Wanneer hij een concrete AGI-voorspelling doet (vaak als een datum, niet als een vaag “ooit”), krijgt die vaak veel aandacht: investeerders verwijzen ernaar, journalisten debatteren erover en onderzoekers worden gevraagd erop te reageren.
Kurzweils invloed draait niet alleen om optimisme. Het gaat ook om het aanbieden van een herhaalbaar narratief voor waarom vooruitgang zou moeten versnellen—vaak gekoppeld aan exponentiële groei in computerkracht en het idee dat elke generatie gereedschappen helpt de volgende te bouwen. Of je het er mee eens bent of niet, hij levert een gestructureerde manier om over een tijdlijn voor kunstmatige algemene intelligentie te praten in plaats van het als pure sciencefiction te behandelen.
Een voorspelling decennia vooruit gaat minder over het raden van een kalenderdatum en meer over het projecteren van een bundel trends: compute, kosten, data, algoritmes en het praktische vermogen om systemen te bouwen die generaliseren. De gok is dat deze krommen blijven bewegen—en dat de huidige “missende stukjes” oplosbare engineeringproblemen zijn die krimpen naarmate de inputs verbeteren.
Dit stuk behandelt:
Zelfs onder serieuze experts variëren AGI-voorspellingen sterk omdat ze afhankelijk zijn van aannames: wat “AGI” betekent, welke knelpunten het meest tellen en hoe snel doorbraken zich vertalen naar betrouwbare producten. Kurzweils tijdlijnen zijn invloedrijk niet omdat ze gegarandeerd zijn, maar omdat ze concreet genoeg zijn om te testen—en lastig om te negeren.
Ray Kurzweil is een Amerikaanse uitvinder, auteur en toekomstvoorspeller die bekendstaat om zijn langetermijntechnologievoorspellingen—en om ze te ondersteunen met grafieken, historische data en gedurfde deadlines.
Kurzweil werd eerst breed bekend door praktische uitvindingen, vooral in spraak- en teksttechnologieën. Hij bouwde bedrijven rond optical character recognition (OCR), text-to-speech en muziekgereedschappen, en bracht decennia dicht bij echte productbeperkingen door: datakwaliteit, hardwarekosten en wat gebruikers daadwerkelijk zullen adopteren. Die bouwersmentaliteit kleurt zijn voorspellingen—hij neigt ertoe vooruitgang te zien als iets dat geïngineerd en opgeschaald kan worden.
Hij werkte ook binnen grote techorganisaties (waaronder Google), wat zijn visie versterkte dat grote sprongen vaak voortkomen uit aanhoudende investeringen, betere tooling en samenhangende verbeteringen—niet alleen geïsoleerde doorbraken.
Kurzweils AGI-tijdlijn wordt meestal besproken via zijn populaire boeken, vooral The Age of Spiritual Machines (1999) en The Singularity Is Near (2005). Deze werken betogen dat informatietechnologieën op versnellende, samengestelde manieren verbeteren—en dat die versnelling uiteindelijk machines met menselijk niveau (en daarna bovenmenselijk niveau) capaciteiten zal opleveren.
Of je het er mee eens bent of niet, zijn schrijven hielp de termen van het publieke gesprek te bepalen: AI-voortgang als meetbaar, trendgestuurd en (in principe) voorspelbaar.
AGI (Artificial General Intelligence): een AI-systeem dat kan leren en een breed scala aan taken op ongeveer menselijk niveau kan uitvoeren, zich aanpassend aan nieuwe problemen zonder sterk gespecialiseerd te zijn.
Singulariteit: Kurzweils term voor een periode waarin technologische vooruitgang zo snel wordt (en AI zo capabel) dat het de samenleving op onvoorspelbare, moeilijk te modelleren manieren verandert.
Tijdlijn: een voorspelling met datums en mijlpalen (bijvoorbeeld “menselijk-niveau AI tegen jaar X”), niet alleen een algemene bewering dat vooruitgang zal doorgaan.
Kurzweil heeft herhaaldelijk betoogd dat menselijk-niveau kunstmatige algemene intelligentie (AGI) waarschijnlijk binnen de eerste helft van de 21e eeuw ligt—het meest bekend clustering rond de late jaren 2020 tot de jaren 2030 in publieke toespraken en boeken. Hij is niet altijd star over één specifiek jaar, maar de centrale bewering is consistent: zodra computerkracht, data en algoritmes bepaalde drempels overschrijden, zullen systemen de breedte en aanpasbaarheid van menselijke cognitie evenaren.
In Kurzweils framing is AGI geen eindpunt—het is een trigger. Nadat machines menselijk-niveau (en daarna meer) algemene intelligentie bereiken, versterkt vooruitgang zichzelf: slimere systemen helpen bij het ontwerpen van nog slimere systemen, waardoor wetenschappelijke ontdekking, automatisering en mens–machine integratie versnellen. Die compoundingdynamiek koppelt hij aan het bredere idee van de “technologische singulariteit”: een periode waarin verandering zo snel wordt dat alledaagse intuïtie geen betrouwbare gids meer is.
Een belangrijk nuanceverschil in zijn tijdlijnclaims is de definitie van AGI. De huidige toonaangevende modellen kunnen indrukwekkend zijn op veel taken, maar ze zijn nog steeds vaak:
Kurzweils “AGI” impliceert een systeem dat leren kan overdragen tussen domeinen, doelen kan vormen en nastreven in nieuwe situaties, en betrouwbaar de open-eind variëteit van de echte wereld aankan—niet alleen uitmuntend is in benchmarks.
Een kalendervoorspelling is makkelijk te debatteren en moeilijk te gebruiken. Mijlpalen zijn praktischer: aanhoudend autonoom leren, betrouwbaar gebruik van tools en planning, sterke prestaties in rommelige echte omgevingen en duidelijke economische vervanging over veel functietypes. Zelfs als je het niet eens bent met zijn exacte timing, maken deze checkpoints de voorspelling toetsbaar—en nuttiger dan wedden op één headline-jaar.
Kurzweil wordt vaak beschreven als een “serievoorspeller”, en die reputatie is deel van waarom zijn AGI-tijdlijn aandacht krijgt. Maar zijn track record is gemengd op een manier die nuttig is om voorspellen te begrijpen: sommige uitspraken waren specifiek en meetbaar, andere waren richtinggevend maar vaag, en een paar onderschatten belangrijke beperkingen.
Door boeken en toespraken heen wordt hij in verband gebracht met voorspellingen zoals:
Duidelijke, controleerbare voorspellingen zijn gekoppeld aan een datum en een meetbaar resultaat: “tegen jaar X zal technologie Y bereik Z prestatie”, of “de meerderheid van apparaten zal functie F hebben.” Deze zijn te toetsen aan publieke benchmarks (nauwkeurigheidspercentages, verkoop/adoptiegegevens, computekosten).
Vage voorspellingen klinken aannemelijk maar zijn moeilijk te falsifiëren, zoals “computers zullen overal zijn”, “AI zal de samenleving transformeren” of “mensen zullen samensmelten met technologie.” Deze voelen vaak waar aan zelfs als details, timing of mechanisme verschillen.
Een praktische manier om elke voorspeller te evalueren is richting, timing en specificiteit te scheiden.
Het punt is niet om voorspellingen als “goed” of “slecht” te bestempelen. Het is om te zien hoe zelfverzekerde, data-gedreven voorspellingen nog steeds afhangen van verborgen aannames—vooral wanneer ze rommelige sociale adoptie betreffen, niet alleen betere hardware of algoritmes.
Kurzweils “Law of Accelerating Returns” is het idee dat wanneer een technologie verbetert, die verbeteringen het vaak weer makkelijker maken om die technologie verder te verbeteren. Dat creëert een feedbacklus waardoor vooruitgang in de loop van de tijd versnelt.
Een rechte-lijn (lineaire) trend is zoals elk jaar hetzelfde bedrag optellen: 1, 2, 3, 4.
Een exponentiële trend is zoals vermenigvuldigen: 1, 2, 4, 8. Vroeg lijkt het langzaam—dan voelt het ineens alsof alles tegelijk gebeurt. Kurzweil betoogt dat veel technologieën (vooral informatietechnologieën) dit patroon volgen omdat elke generatie gereedschappen helpt de volgende te bouwen.
Kurzweil vraagt niet alleen “Kunnen we X doen?” Hij vraagt “Hoe goedkoop kunnen we X doen?” Een veelvoorkomend patroon in computing is: prestatie stijgt terwijl kosten dalen. Wanneer de kosten om een nuttig model te draaien dalen, kunnen meer mensen experimenteren, producten uitrollen en de volgende golf financieren—wat de vooruitgang versnelt.
Daarom let hij op langlopende krommen zoals “berekeningen per dollar”, niet alleen op headline-demo’s.
Moore’s law is het klassieke voorbeeld: decennialang verdubbelde het aantal transistors op chips ongeveer volgens een schema, waardoor computers sneller en goedkoper werden.
Kurzweils argument is niet dat “Moore’s law voor altijd blijft doorlopen.” Het is breder: zelfs als één hardware-aanpak vertraagt, kunnen andere methoden (betere chips, GPUs/TPUs, parallelisme, nieuwe architecturen, software-efficiëntie) de algehele kost/prestatie-trend blijven verbeteren.
Mensen voorspellen de toekomst vaak door recente verandering in hetzelfde tempo door te trekken. Dat mist compounding. Het kan vroege vooruitgang onbeduidend doen lijken—en latere vooruitgang “plotseling”, terwijl het misschien al voorspelbaar was op een kromme die zich jaren opbouwde.
Voorspellingen zoals die van Kurzweil beginnen meestal met meetbare trends—dingen die je op een grafiek kunt zetten. Dat is een kracht: je kunt de inputs bespreken in plaats van puur op intuïtie te redeneren. Het is ook waar de grootste beperkingen zichtbaar worden.
Technologie-voorspellers volgen vaak:
Deze curves kunnen overtuigend zijn omdat ze langlopend en vaak bijgewerkt worden. Als je blik op AGI is “genoeg hardware plus de juiste software”, voelen deze datasets als solide grond.
Het belangrijkste gat: meer hardware levert niet automatisch slimmere systemen op. AI-capaciteit hangt af van algoritmes, datakwaliteit, trainingsrecepten, tooling en menselijke feedback—niet alleen van FLOPs.
Een nuttige manier om erover te denken: hardware is een budget, capaciteit is het resultaat. De relatie tussen beide is echt, maar niet vast. Soms ontgrendelt een kleine algorithmische verandering grote winst; soms stuit opschaling op afnemende meeropbrengsten.
Om “inputs” (compute, geld) te verbinden met “outputs” (wat modellen daadwerkelijk kunnen), hebben voorspellers nodig:
Benchmarks zijn te manipuleren, dus de meest overtuigende signalen combineren testscores met bewijs van duurzame bruikbaarheid.
Twee frequente fouten zijn cherry-picken van curves (tijdvensters kiezen die het meest exponentieel lijken) en het negeren van knelpunten zoals energiebeperkingen, datalimieten, latentie, regelgeving of de moeilijkheid om smalle competentie om te zetten in algemene competentie. Deze beëindigen voorspellen niet, maar vergroten wel de foutmarges.
Langetermijn AGI-tijdlijnen—ook die van Kurzweil—hangen minder af van één “doorbraakhitte” en meer van een stapel aannames die tegelijk waar moeten zijn. Als een laag verzwakt, kan de datum opschuiven zelfs als vooruitgang doorgaat.
De meeste decennia-voorspellingen veronderstellen dat drie curves samen stijgen:
Een verborgen aanname: deze drie drijfveren substitueren elkaar niet perfect. Als datakwaliteit stagneert, levert “gewoon meer compute” mogelijk kleinere opbrengsten.
Voorspellingen behandelen compute vaak als een vloeiende curve, maar de realiteit loopt via fabrieken en stroomnetten.
Energieprijzen, chipproductiecapaciteit, exportcontroles, geheugenbandbreedte, netwerkapparatuur en supply-chain schokken kunnen allemaal beperken hoe snel training en uitrol opschalen. Zelfs als de theorie zegt “10× meer compute”, is de weg ernaartoe hobbelig en duur.
Langetermijnvoorspellingen nemen ook aan dat de samenleving adoptie niet te veel vertraagt:
Regelgeving, aansprakelijkheid, publiek vertrouwen, werkplek-integratie en ROI beïnvloeden of geavanceerde systemen worden getraind en breed ingezet—of in nauwe, dure settings blijven.
Misschien is de grootste aanname dat capaciteitsverbeteringen door opschaling (beter redeneren, plannen, toolgebruik) natuurlijk convergeren naar algemene intelligentie.
“Meer compute” kan modellen vloeiender en nuttiger maken, maar niet automatisch algemener in de zin van betrouwbare overdracht over domeinen, langetermijn-autonomie of stabiele doelen. Lange tijdlijnen veronderstellen vaak dat deze gaps engineeringproblemen zijn—niet fundamentele barrières.
Zelfs als computerkracht en modelgroottes blijven toenemen, kan AGI later arriveren dan voorspeld vanwege redenen die weinig met ruwe snelheid te maken hebben. Verschillende knelpunten gaan over wat we bouwen en hoe we weten dat het werkt.
“AGI” is geen enkele schakelaar die je aanzet. Een bruikbare definitie impliceert gewoonlijk een agent die snel nieuwe taken leert, vaardigheden tussen domeinen overdraagt, over lange horizons plant en rommelige, veranderende doelen met hoge betrouwbaarheid aankan.
Als het doel blijft schuiven—klevende assistent vs. autonome werker vs. wetenschapper-niveau redeneerder—kan vooruitgang indrukwekkend lijken terwijl belangrijke vaardigheden ontbreken zoals langetermijngeheugen, causaal redeneren of consistente besluitvorming.
Benchmarks zijn te manipuleren, kunnen overfitten of verouderen. Sceptici willen doorgaans bewijs dat een AI kan slagen op onbekende taken, onder nieuwe beperkingen, met lage foutpercentages en herhaalbare resultaten.
Als het veld het niet eens kan worden over tests die overtuigend “uitstekende patrooncompletion” scheiden van “algemene competentie”, worden tijdlijnen gissingen—en voorzichtigheid kan de uitrol vertragen.
Capaciteit kan sneller groeien dan beheersbaarheid. Als systemen agentachtiger worden, stijgt de lat om bedrog, doelafwijking en schadelijke bijeffecten te voorkomen.
Regelgeving, audits en safety-engineering kunnen tijd kosten ook al verbeteren modellen snel—vooral voor toepassingen met hoge inzet.
Veel definities van AGI veronderstellen impliciet competentie in de fysieke wereld: objecten manipuleren, experimenten doen, gereedschappen gebruiken en aanpassen aan realtime feedback.
Als leren in de echte wereld datavretend, traag of risicovol blijkt, kan AGI stagneren op “briljant op het scherm” prestaties—terwijl praktische generaliteit wacht op betere robotica, simulatie en veilige trainingsmethoden.
Kurzweils voorspellingen zijn invloedrijk deels omdat ze duidelijk en kwantitatief zijn—maar diezelfde duidelijkheid nodigt ook uit tot scherpe kritiek.
Een veelgehoord bezwaar is dat Kurzweil sterk leunt op het verlengen van historische curves (compute, opslag, bandbreedte) naar de toekomst. Critici stellen dat technologie niet altijd soepel schaalt: chipvooruitgang kan vertragen, energiekosten kunnen knellen en economische prikkels kunnen verschuiven. Zelfs als de lange termijn richting omhoog blijft, kan het tempo veranderen op manieren die specifieke datums onbetrouwbaar maken.
AGI is niet alleen een kwestie van snellere hardware. Het is een complex-systeemprobleem met algoritmes, data, trainingsmethoden, evaluatie, veiligheidsbeperkingen en menselijke adoptie. Doorbraken kunnen gebottlenecked worden door één ontbrekend idee—iets wat je niet betrouwbaar op een kalender kunt zetten. Sceptici wijzen erop dat wetenschap vaak gaat via ongelijke stappen: lange plateaus gevolgd door plotselinge sprongen.
Een andere kritiek is psychologisch: we onthouden dramatische juiste voorspellingen meer dan de stillere missers of bijna-missers. Als iemand veel sterke voorspellingen doet, kunnen een paar memorabele treffers de publieke perceptie domineren. Dit betekent niet dat de voorspeller “fout” is, maar het kan vertrouwen in de nauwkeurigheid van tijdlijnen opblazen.
Zelfs experts die snelle AI-voortgang accepteren verschillen over wat “meetelt” als AGI, welke capaciteiten moeten generaliseren en hoe die te meten. Kleine verschillen in definities (taalbreedte, autonomie, betrouwbaarheid, leren in de echte wereld) kunnen voorspellingen tientallen jaren verschuiven—zonder dat iemand van mening verandert over de huidige vooruitgang.
Kurzweil is één luide stem, maar AGI-tijdlijnen zijn een druk debat. Een nuttige manier om dat te schetsen is het nabij-termijn kamp (AGI binnen jaren tot een paar decennia) versus het lange-termijn kamp (meerdere decennia of “niet deze eeuw”). Ze kijken vaak naar dezelfde trends maar verschillen over wat ontbreekt: nabij-optimisten benadrukken snelle opschaling en opkomende emergente capaciteiten, terwijl langetermijnsceptici onopgeloste problemen benadrukken zoals betrouwbaar redeneren, autonomie en robuustheid in de echte wereld.
Expertenquêtes aggregeren opvattingen van onderzoekers en beoefenaars (bijv. polls die vragen wanneer er 50% kans is op “menselijk-niveau AI”). Deze kunnen verandering in sentiment tonen, maar ze weerspiegelen ook wie is ondervraagd en hoe vragen zijn geformuleerd.
Scenario-planning vermijdt het kiezen van één datum. In plaats daarvan schetst het meerdere plausibele toekomsten (snelle vooruitgang, trage vooruitgang, regelgevende knelpunten, hardwarebeperkingen) en vraagt welke signalen elk pad zouden aangeven.
Benchmark- en capaciteitsgebaseerde voorspelling volgt concrete mijlpalen (codeertaken, wetenschappelijk redeneren, agentbetrouwbaarheid) en schat welke verbeteringssnelheid nodig is om bredere competentie te bereiken.
“AGI” kan betekenen het halen van een brede testsuite, het kunnen doen van de meeste banen, opereren als een autonome agent of mensen matchen over domeinen met minimale supervisie. Een strengere definitie duwt doorgaans tijdlijnen later, en onenigheid hierover verklaart veel van de spreiding.
Zelfs optimistische en sceptische experts zijn het vaak over één punt eens: tijdlijnen zijn zeer onzeker, en voorspellingen moeten worden behandeld als bereiken met aannames—geen kalenderbeloften.
Voorspellingen over AGI kunnen abstract aanvoelen, dus het helpt concrete signalen te volgen die voor elk “groot moment” zouden moeten bewegen. Als Kurzweil-achtige tijdlijnen richting correct zijn, zou het volgende decennium gestage winst moeten laten zien in capaciteit, betrouwbaarheid, economie en governance.
Let op modellen die betrouwbaar over meerdere stappen plannen, zich aanpassen wanneer plannen falen, en tools gebruiken (code, browsers, data-apps) zonder constante hand-holding. Het meest betekenisvolle teken is geen spectaculaire demo—het is autonomie binnen duidelijke grenzen: agenten die meeruurstaken kunnen afronden, verduidelijkende vragen stellen en werk veilig overdragen wanneer ze onzeker zijn.
Vooruitgang zal eruitzien als lagere foutpercentages in realistische workflows, niet alleen hogere benchmarkscores. Volg of “hallucinaties” afnemen wanneer systemen verplicht worden bronnen te citeren, checks uit te voeren of zichzelf te verifiëren. Een belangrijke mijlpaal: sterke prestaties onder auditcondities—dezelfde taak, meerdere runs, consistente uitkomsten.
Zoek naar meetbare productiviteitswinst in specifieke rollen (support, analyse, software, operations), samen met nieuwe functiecategorieën rond toezicht en integratie van AI. Kosten zijn ook belangrijk: als hoogwaardige output goedkoper wordt (per taak, per uur), versnelt adoptie—vooral bij kleine teams.
Als capaciteit stijgt, zou governance moeten verschuiven van principes naar praktijk: standaarden, derdepartij-audits, incidentrapportage en regelgeving die aansprakelijkheid verduidelijkt. Let ook op compute-monitoring en rapportageregels—signalen dat overheden en industrie opschaling als een meetbare, beheersbare hefboom beschouwen.
Als je deze signalen wilt gebruiken zonder te overreageren op headlines, zie /blog/ai-progress-indicators.
AGI-tijdlijnen kun je het beste behandelen als weersvoorspellingen voor een verre datum: nuttig voor planning, onbetrouwbaar als belofte. Kurzweil-achtige voorspellingen kunnen je helpen langetermijntrends op te merken en je keuzes te beproeven, maar ze zouden niet het enige anker in je strategie moeten zijn.
Gebruik voorspellingen om bereiken en scenario’s te verkennen, niet één jaar. Als iemand zegt “AGI tegen 203X”, vertaal dat naar: “Welke veranderingen zouden moeten gebeuren om dat waar te maken—en wat als ze dat niet doen?” Plan vervolgens voor meerdere uitkomsten.
Voor individuen: bouw duurzame vaardigheden (probleemdefiniëring, domeinkennis, communicatie) en houd de gewoonte om nieuwe tools te leren.
Voor bedrijven: investeer in AI-geletterdheid, datakwaliteit en pilotprojecten met duidelijke ROI—terwijl je een “no regrets” plan houdt dat ook werkt als AGI later arriveert.
Een pragmatische manier om “signaleren en itereren” te operationaliseren is bouwcycli te verkorten: prototype workflows, test betrouwbaarheid en kwantificeer productiviteitswinst voordat je grote inzetten doet. Platforms zoals Koder.ai passen bij deze aanpak door teams toe te staan web-, backend- en mobiele apps via een chatinterface te maken (met planningsmodus, snapshots en rollback), zodat je agent-ondersteunde processen snel kunt uitproberen, broncode kunt exporteren wanneer nodig en voorkomt dat je strategie aan één voorspelling vastzit.
Een evenwichtige conclusie: tijdlijnen kunnen voorbereiding sturen, niet zekerheid geven. Gebruik ze om experimenten te prioriteren en blinde vlekken te verkleinen—en herzie je aannames regelmatig naarmate nieuw bewijs binnenkomt.
Kurzweils voorspellingen zijn belangrijk omdat ze specifiek genoeg zijn om getest te worden en veel worden geciteerd, waardoor ze de manier waarop mensen over AGI-tijdlijnen praten beïnvloeden.
In de praktijk beïnvloeden ze:
Zelfs als de datums niet kloppen, kunnen de mijlpalen en aannames die hij benadrukt nuttige inputs zijn voor planning.
In deze context betekent AGI een AI die kan leren en een breed scala aan taken op ongeveer menselijk niveau kan uitvoeren, inclusief aanpassen aan nieuwe problemen zonder sterk gespecialiseerd te zijn.
Een praktische checklist die in het artikel wordt gesuggereerd bevat:
Kurzweils meest besproken publieke opvatting plaatst menselijk-niveau AGI in de late jaren 2020 tot 2030s, geformuleerd als een waarschijnlijke periode in plaats van een gegarandeerd enkel jaar.
Een bruikbare manier om dit te gebruiken is het te zien als een scenariobereik en na te gaan of de voorwaardelijke trends (kosten van compute, algoritmes, uitrol) in de benodigde richting blijven bewegen.
Hij stelt dat vooruitgang accelereert omdat verbeteringen in een technologie het vervolgens gemakkelijker maken om die technologie weer te verbeteren—waardoor een compenserende feedbacklus ontstaat.
In de praktijk wijst hij op trends zoals:
De kernclaim is niet dat “één wet alles verklaart”, maar dat compounding ervoor kan zorgen dat vroeg ogende langzame vooruitgang later snel aanvoelt.
Compute is een belangrijke input, maar het artikel benadrukt dat hardware-vooruitgang ≠ capaciteits-vooruitgang.
Meer compute helpt wanneer het gepaard gaat met:
Een bruikbaar beeld: hardware is het ; capaciteit is het —de relatie daartussen kan veranderen.
Nuttige ondersteunende data omvat langlopende, meetbare curves:
Belangrijke beperkingen:
Belangrijke aannames in het artikel zijn onder meer:
Als een van deze lagen zwakker wordt, kan de datum verschuiven zelfs als vooruitgang doorgaat.
Enkele factoren die kunnen vertragen zonder dat trends omkeren:
Deze kunnen tijdslijnen vertragen terwijl modellen op papier blijven verbeteren.
De belangrijkste kritieken die het artikel noemt zijn:
Een praktische les: beschouw precieze datums als , geen beloften.
Houd signalen in de gaten die zouden moeten verschuiven vóór een “AGI-moment”, met name:
Deze signalen helpen je overtuigingen bij te werken zonder te reageren op enge demos.
Als je deze signalen wilt gebruiken zonder te overreageren op koppen, zie /blog/ai-progress-indicators.