Home

Bedrijven streven naar 'agi', maar de definitie verzinnen ze zelf

Het is zover: we hebben artificial general intelligence bereikt, als we tenminste Nvidia-ceo Jensen Huang moeten geloven. Voornamelijk techbedrijven, maar ook wetenschappers gebruiken de term 'agi' vaak als hét ijkpunt voor kunstmatige intelligentie: een AI-systeem moet dat bereiken om gezien te worden écht als intelligent. Demis Hassabis, ceo van Google DeepMind, noemt de aanstaande komst van agi bijvoorbeeld 'het transformatiefste moment in de menselijke geschiedenis'.

Tegelijkertijd is het moeilijk om vast te stellen hoe een agi-systeem eruit moet zien, laat staan wanneer we zo'n systeem hebben bereikt. Het is dus niet vreemd dat bedrijven hun eigen definities opstellen om het bereiken van agi meetbaarder te maken. Volgens de Nvidia-topman bijvoorbeeld moet een agi-systeem in staat zijn om een succesvol techbedrijf ter waarde van minstens een miljard dollar op te zetten en te leiden. OpenAI spreekt over een autonoom systeem 'dat beter presteert dan mensen bij het meeste economisch waardevolle werk'.

De term 'agi' wordt dus omringd door vage beloftes en uiteenlopende definities. Maar wat betekent deze heilige graal op AI-gebied nou écht en in hoeverre is het haalbaar om systemen te ontwikkelen die hieraan voldoen?

Hoewel steeds meer bedrijven aan de haal gaan met de definitie van 'agi', is het ook onder wetenschappers nog een discussiepunt hoe zo'n systeem eruit moet gaan zien. Volgens Vanessa Evers, AI-onderzoeker bij het Centrum Wiskunde & Informatica, heeft zo'n beetje iedereen een eigen mening daarover. "Op conferenties waar ik kom, denken mensen vooral aan Nick Bostrom-achtige doemscenario's van robots in paperclipfabrieken, die iedereen vermoorden om zoveel mogelijk paperclips te kunnen maken."

Over het algemeen wordt agi gezien als een AI-systeem dat zich op vrijwel alle cognitieve vlakken kan meten met een mens. Dat is ook grofweg de definitie die voormalig AI-onderzoeker Mark Gubrud in 1997 gaf aan 'agi'. Hij wordt over het algemeen gezien als de bedenker van de term. Het blijft echter een vage definitie. Volgens Evers verschuift de definitie van wat we als een intelligent AI-systeem beschouwen voortdurend.

"Stanford-hoogleraar Terry Winograd ontwikkelde vijftig jaar geleden een AI-systeem met een robotarm die commando's kon opvolgen, zoals 'pick up the red block'. Toen hadden we allemaal zoiets van: AI is gekraakt, we hebben echte intelligentie bereikt. Maar al snel daarna was Terry teleurgesteld, want het systeem stelde buiten die afgebakende blokomgeving maar weinig voor."

De Turing-test, ook wel Imitation Game genoemd, is een experiment bedacht door de Britse wiskundige en informaticus Alan Turing. Bij deze test voert een persoon via een tekstinterface een gesprek met twee entiteiten: een chatbot en een mens. De persoon moet vervolgens beoordelen welk van de twee gesprekken met een computer was.

Er kwamen verschillende andere AI-systemen die destijds als écht intelligent werden gezien, zoals chatbot Eliza en IBM-schaakcomputer Deep Blue. Daarnaast ontstonden er diverse experimenten om intelligentie van kunstmatige systemen te kunnen meten, waarvan de Turing-test veruit het bekendst is. Maar ook zulke tests en mijlpalen worden allang als achterhaald gezien.

"Volgens mij is streven naar menselijke intelligentie van alle tijden", zegt Evers. "Zodra we denken dat we dat bereikt hebben, hebben we zoiets van: nee, we zijn echt wel intelligenter dan dat. En dan leggen we de lat weer hoger."

Hoewel de mensheid dus al decennialang 'menselijke intelligentie' probeert na te streven met AI-systemen, betwijfelt de AI-onderzoekster de logica van dat streven. "Ik vind de menselijke intelligentie als maatstaf nemen erg arrogant, alsof wij het summum van intelligentie zijn. Chimpansees zijn in bepaalde cognitieve taken bijvoorbeeld superieur aan ons. Je zou pas echt iets bijzonders krijgen als je een combinatie maakt van alle dierlijke en organische intelligentie."

De vaak gegeven definitie dat agi 'menselijk intelligent' moet zijn is weliswaar vaag, maar wel consequent. Toch verstaat niet iedereen dat onder 'agi'. In een contract tussen OpenAI en Microsoft uit 2019 staat bijvoorbeeld dat als agi wordt bereikt, Microsoft niet langer een exclusieve licentie heeft op bepaalde technologie van OpenAI. De daarbij gegeven definitie luidt dat agi is bereikt zodra OpenAI's systemen 100 miljard dollar opleveren. Vorig jaar werd het contract herzien, waardoor een 'onafhankelijk panel van experts' nu moet bevestigen dat agi daadwerkelijk is behaald.

OpenAI is niet het enige techbedrijf dat een economische definitie geeft aan de term 'agi'. Nvidia-topman Jensen Huang zegt dat een agi-model een succesvol techbedrijf ter waarde van minstens een miljard dollar moet kunnen opzetten en leiden. Omdat AI-agenttools als OpenClaw in theorie zelfstandig een succesvol bedrijf zouden kunnen opzetten, vindt Huang dat we agi al hebben bereikt.

Ook andere bedrijven, waaronder xAI, Google en DeepSeek, hebben aangegeven dat ze agi willen bereiken. Vaak stellen ze dat deze mijlpaal binnen vijf tot tien jaar kan worden behaald. "Agi wordt nu als een soort moonshot gebruikt", denkt Evers. "Het is dan een doel op de horizon waar iedereen enthousiast van wordt en waarmee bedrijven investeerders aan boord krijgen."

Dit zijn de definities die AI-chatbots zelf geven voor 'agi'.

Toch doen sommige AI-bedrijven de laatste tijd juist wat afstand van de term. OpenAI, Anthropic en Microsoft hebben onlangs aangegeven dat agi een onduidelijke mijlpaal is, waaraan ze intern weinig waarde (meer) hechten. In plaats daarvan hypen ze steeds vaker de komst van een andere mijlpaal op AI-gebied: artificial superintelligence (asi).

Zo gaf OpenAI deze maand nog aan dat de transitie naar 'superintelligentie' is begonnen. Dat is volgens het bedrijf een AI-systeem dat niet alleen de intelligentie van mensen evenaart, maar zelfs de slimste mensen op alle cognitieve taken voorbijstreeft. Zulke systemen moeten 'wetenschappelijke en medische doorbraken versnellen, de productiviteit aanzienlijk verhogen, de kosten voor gezinnen verlagen door essentiële goederen goedkoper maken en de weg vrijmaken voor volledig nieuwe vormen van werk, creativiteit en ondernemerschap'.

Tegelijkertijd waarschuwt het bedrijf dat zulke modellen de maatschappij kunnen ontwrichten. Asi zou kunnen leiden tot grootschalig banenverlies, overheden zouden de democratie ermee kunnen misbruiken en zulke modellen zouden te misbruiken zijn voor bioterrorisme. Daarbij noemt OpenAI niet hoe het dit precies voor zich ziet.

Naast OpenAI heeft Meta een onderzoekslab opgericht om 'next-gen superintelligence' te ontwikkelen, maar een definitie geeft het bedrijf niet. Meta spreekt in vage bewoordingen. Zo moet superintelligente AI 'de mensheid helpen om sneller vooruitgang te boeken'. Meta wil naar eigen zeggen ook 'persoonlijke superintelligentie' creëren, bedoeld voor reguliere gebruikers, die 'ons door en door kent, onze doelen begrijpt en ons kan helpen deze te bereiken'.

Ook de definitie van superintelligentie is dus open voor interpretatie. Evers ziet asi bijvoorbeeld als een AI-systeem dat specifieke kennis kan generaliseren en vervolgens kan toepassen bij heel andere, ongerelateerde taken. "Iemand die door het vioolspelen vingervlugheid heeft ontwikkeld, kan dat bijvoorbeeld toepassen bij het werk in een chemisch lab." Ze stelt dat we een 'superintelligente' robot in een klaslokaal moeten kunnen laten 'opgroeien', waarna hij alles wat hij daar heeft geleerd kan meenemen naar bijvoorbeeld een autowerkplaats en daar eveneens kan floreren.

Amerikaanse onderzoekers hebben een hypothetisch scenario uitgedacht voor hoe AI zich de komende tijd stap voor stap kan ontwikkelen tot een superintelligentie. Bron: AI 2027

Als je een AI-systeem wil ontwikkelen dat zich kan meten met menselijke intelligentie, is het wel handig als je in het geheel menselijke intelligentie kunt meten. De wetenschap snapt echter nog steeds niet hoe menselijke intelligentie precies in elkaar steekt. "We weten maar heel weinig van de menselijke hersenen", zegt Vanessa Evers. "Als je niet weet hoe menselijke intelligentie werkt, hoe kun je dan bepalen of je het hebt bereikt in een systeem?"

Evers vindt dat de huidige grote taalmodellen op zichzelf nooit werkelijk (boven)menselijke intelligentie kunnen evenaren. Dat komt deels door de manier waarop ze informatie tot zich nemen: ze worden als het ware gedwangvoederd met informatie over de wereld. Dat is natuurlijk niet hoe mensen leren. "Als mens leer je heel lichamelijk. We voelen, ruiken, proeven, zien dingen, hebben sociale interactie, noem maar op. AI-systemen leren veel beperkter. De benchmark is dus oneindig."

AI-systemen hebben volgens haar in de eerste plaats dus een lichaam nodig. "Er wordt nu ook veel geïnvesteerd in humanoïde robots. Ik denk dat dat komt doordat bedrijven tegen de beperkingen aanlopen van enkel leren uit tekst, zonder lichaam. Waarom dat lichaam humanoïde moet zijn weet ik trouwens niet, maar dat is nu de rage. Je hoeft echt niet aan te komen met een ander soort robot, want dat wordt niet gefinancierd."

Het is daarbij nog de vraag of het 'brein' van zo'n hypothetische superintelligente robot uit llm's kan bestaan, of dat daarvoor een nieuwe vorm van generatieve AI nodig is. Volgens Evers hebben de huidige AI-modellen al meer bereikt dan verwacht. "Een paar jaar geleden zei AI-godfather Yann LeCun nog dat het opschalen van generatieve AI naar video's niet lukt en dat daarvoor echt een heel ander paradigma nodig is dan gewoon voorspellen hoe het volgende frame van een video eruit gaat zien. Je ziet nu dat dat toch best aardig is gelukt en dat AI-bedrijven in de buurt zijn gekomen van een wereldmodel voor beeld, gewoon door de huidige AI-systemen op te schalen."

"Ik vind dat wel jammer", geeft de AI-onderzoekster toe. "Het is heel gaaf dat je op basis van een hoop data kunt voorspellen wat de volgende letter in een zin moet zijn, of de volgende pixel in een afbeelding. Maar ik was eigenlijk wel benieuwd naar dat nieuwe paradigma – een compleet nieuwe doorbraak waardoor we allemaal kunnen roepen: 'we hebben de barrière voor superintelligentie gekraakt'. Net zoals het toen voor Terry Winograd voelde."

Redactie: Kevin Krikhaar • Eindredactie: Marger Verschuur

Source: Tweakers.net

Previous

Next