Gaat GPT-3 het contractenschrijven van ons overnemen? #legaltechtuesday

Opmerkelijk nieuws uit de technologiewereld: de Engelse krant The Guardian had een column gepubliceerd die geheel door een robot geschreven was. Die robot heet GPT-3, en hoewel bleek dat de column wel gewoon eindredactie had ondergaan was de tekst behoorlijk lastig te herkennen als van een robot afkomstig. GPT-3 is geschreven als algemene tekstschrijfdienst, en is daarmee in alle sectoren inzetbaar. Ook de juridische?

GPT-3, oftewel Generative Pre-trained Transformer 3, is een taalvoorspellend neuraal netwerk ontwikkeld door de Californische stichting OpenAI dat is getraind op 500 miljard tokens afkomstig van het gehele internet. In gewone taal: GPT-3 heeft internet in haar geheugen geladen en schrijft nu zinnen gebaseerd op dit onvoorstelbaar grote voorbeeld van alle mogelijke menselijke kennis.

Hiermee kun je de dienst bijvoorbeeld een vraag stellen, waarna deze een antwoord componeert dat griezelig vaak gewoon klopt. Feitelijke vragen over welk onderwerp dan ook blijken geen probleem. Maar het neuraal netwerk kan ook gedichten componeren, al dan niet in de stijl van Shakespeare, en zelfs software schrijven op basis van een omschrijving van wat de software moet doen.

Eerdere modellen in deze trant liepen vaak tegen de lamp doordat ze onzin produceerden, of niet ver van het bronmateriaal af wisten te stappen. Maar GPT-3 ontstijgt haar voorgangers fundamenteel; slechts zelden valt op dat de tekst niet door een mens geschreven is.

Dit riekt naar wat technologen general AI of artificial general intelligence noemen: de hypothetische intelligentie van een machine die de capaciteit heeft om elke intellectuele taak die een mens kan begrijpen of te leren. Als een computer iedere tekst kan schrijven die we nodig hebben, zou je die computer dan intelligent kunnen noemen?

Misschien wel. Daar staat natuurlijk tegenover dat die computer niet écht nadenkt, althans niet op de manier waarop mensen nadenken. Heel oneerbiedig naar haar ontwikkelaars toe zeg je hier dat GPT-3 herschikt en produceert wat zij eerder heeft aangetroffen. Er is geen eigen creatieve inbreng, er is alleen zó veel invoer dat het lijkt op iets nieuws. Dit is iets te kort door de bocht, want GPT-3 kijkt niet alleen maar naar voorbeeldzinnen maar ook naar thema’s en woordgebruik in de breedte. Maar er zit inderdaad nul woord- of zinsbegrip in.

Juristen produceren ook veel teksten, met name natuurlijk in contractenland. Maar ook een dagvaarding is natuurlijk een behoorlijke lap tekst. Met genoeg voorbeelden zou GPT-3 ook in staat moeten zijn om dergelijke teksten te schrijven. Moeten wij daar nu bang voor zijn, gaat deze tekstrobot ook ons werk vervangen?

Nee, dat denk ik niet. En niet omdat het opstellen van dergelijke teksten zo creatief is dat zelfs een met 500 miljard tokens  geladen Artificial Intelligence ze niet kan maken. Nee, juist omdat teksten zo standaard zijn dat dit volgens mij niet eens nodig zou moeten zijn. Waarom elke keer opnieuw dezelfde onderwerpen beschrijven met nieuwe taal? Zelfs een robot zou daar weinig trek in hebben.

Ik heb het al vaker gezegd, maar het blijft de moeite van het herhalen waard: juist door de opkomst van steeds meer van dit soort technologie zal meer standaardisatie ontstaan. Dan hoef je niet meer in detail op te schrijven welke aansprakelijkheid je uitsluit of welke eis je stelt, maar kun je simpelweg verwijzen naar variant X of model Y. En een robot weet dan wat je bedoelt en kan dat gericht aanvullen. Dat is de toekomst van juridische teksten.

Arnoud

6 reacties

  1. Daar staat natuurlijk tegenover dat die computer niet écht nadenkt, althans niet op de manier waarop mensen nadenken. Heel oneerbiedig naar haar ontwikkelaars toe zeg je hier dat GPT-3 herschikt en produceert wat zij eerder heeft aangetroffen. Er is geen eigen creatieve inbreng, er is alleen zó veel invoer dat het lijkt op iets nieuws.

    Wat is er dan anders aan hoe mensen dit doen? Een mens moet ook alles leren om een tekst te kunnen schrijven. Een baby zal er niet veel van terechtbrengen. Het creatieve proces bij mensen is volgens mij ook weinig anders dan een willekeurige, maar nieuwe, combinatie van bestaande kennis, getoetst aan aangeleerde waarden van wat ‘goed’ is. Waar dit bij AI met behulp van een PRNG zal gaan, worden in de hersenen willekeurige stukjes kennis verbonden. De willekeur zit hem dan in de plek waar iets is opgeslagen en de snelheid van de verbindingen tussen onderlinge neuronen.

  2. Het verschil tussen mensen en “denkende” computers is dat uit data alleen correlaties kunnen worden afgeleid (bijvoorbeeld: als er meer ijsjes verkocht worden is het warmer) terwijl mensen causale verbanden kunnen leggen (er worden meer ijsjes verkocht omdat het warmer is, en niet andersom). Alle machine learning, data mining, statistiek en artificial intelligence ten spijt: causale verbanden kunnen per definitie niet uit geobserveerde data afgeleid worden. Het is altijd nodig om gecontroleerde experimenten te doen, of expliciet aannames vast te leggen (zie het werk van Judea Pearl, winnaar van de Turing award, over causal reasoning).

    1. Sander, kunnen causale verbanden gesuggereerd worden in de wetenschappelijke literatuur en op die manier opgepikt worden door een KI?

      Kun jij me uitleggen hoe een mens het concept “rood” opslaat in zijn geheugen? En hoe GPT-3 hetzelfde concept opslaat (codeert)? Kun je me ook uitleggen wat de functionele effecten (observerbaar in de uitvoer van beide systeme) zijn tussen de verschillen in codeermethodes? Als ik jou drie woorden geef en je vraag een tiental zinnen met die woorden te vormen (bijvoorbeeld “rood”, “auto” en “verkeerslicht”) en ik vraag hetzelfde aan GPT-3; denk je dan dat een mens (dubbelblind) kan herkennen welk van de lijstjes van de mens en welk van de machine komt?

      Het is mijn stelling dat de simulatie van het menselijk brein zodanig te perfectioneren is dat je niet meer kunt vaststellen of een antwoord op een vraag van een mens of van de simulatie komt. Vereist nog veel hersenonderzoek voordat we daar zijn; maar misschien kunnen we ons alvast eraan wennen dat computers ooit kunnen denken.

  3. Microsoft PowerBI heeft nu ook zoiets dergelijks. Bij een rapport kan AI een stuk tekst genereren met een uitleg over wat er in het rapport getoond wordt. ’t Is nog verre van perfect maar ’t zal niet lang meer duren voor je het jaarverslag met een druk op de knop genereert. Voor tekstschrijvers die dat soort teksten schrijven gaan het nog barre tijden worden. Maar voor creatieve tekstschrijvers juist weer niet, verwacht ik. Wil je opvallen tussen al die gegenereerde teksten, dan zul je van goede huize moeten zijn. En zover is AI (gelukkig?) nog lang niet.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.