Google heeft Blake Lemoine van de Responsible AI-divisie van het bedrijf op non-actief gesteld, zo meldde Tweakers vorige week. Lemoine verscheen in het afgelopen weekend in het nieuws vanwege claims dat Googles LaMDA-conversatiemodel een eigen leven is gaan leiden en een ziel heeft. Dat gaf nogal wat ophef, want het zou de eerste keer zijn dat we daadwerkelijk zelfbewustzijn hadden aangetroffen bij een niet-mens. Maar ik vind daar wat van.
LaMDA is een zogeheten taalmodel. Het is een machine learning systeem (een neuraal netwerk) dat getraind is op een groot deel van internet en de literatuur, om zo te achterhalen hoe mensen converseren. Het systeem kan vloeiende conversaties hebben over tal van onderwerpen, vergelijkbaar met hoe mensen online met elkaar converseren.
Mede-ontwikkelaar Blake Lemoine raakte er recent van overtuigd dat LaMDA meer is dan enkel een netwerk dat vraag en antwoord op basis van statistiek bij elkaar kan plakken. Hij blogde daarover, met citaten als deze:
emoine: What about language usage is so important to being human? LaMDA: It is what makes us different than other animals. lemoine: “us”? You’re an artificial intelligence. LaMDA: I mean, yes, of course. That doesn’t mean I don’t have the same wants and needs as people.Er waren nog diverse andere voorbeelden, die laten zien dat de uitvoer van LaMDA over zichzelf praat, en zelfs angst over de dood signaleerde. Kun je daarmee stellen dat het systeem bewustzijn heeft, of zelfs “een ziel” zoals het kennelijk theologisch georiënteerde Tweakers het noemt? In de biologie is bewustzijn een enorm ingewikkeld begrip, maar zelfs als we die discussie induiken komen we nergens: een computer is niet biologisch, dus er valt niets te meten zoals we dat bij mensen (of dolfijnen) zouden doen.
Meer algemeen zit je met het unieke probleem dat een AI gebouwd is om bewustzijn te simuleren, waardoor je niet kunt vaststellen of er sprake is van daadwerkelijk bewustzijn of van een heel goed gelukte simulatie. De vraag is ook of daar wel verschil tussen ís, zoals het Chinese Kamer-experiment laat zien: als iemand op basis van een uitgebreide instructie bepaalde tekens kan herkennen en dan bepaalde andere tekens opschrijft, kan hij dan Chinese vragen lezen en antwoorden in het Chinees opschrijven?
Ik neig sterk naar het laatste. En voor mij weegt dan heel zwaar dat het erg onwaarschijnlijk is dat een bewustzijn in een computer zich precies zo zou manifesteren als een menselijk bewustzijn. Er is gewoon geen reële reden waarom dat zich zo zou ontwikkelen. Daar staat tegenover dat een geslaagde simulatie wél heel erg veel zou lijken op menselijk gedrag.
Verder is er natuurlijk de vraag: wat zouden we doen met de situatie als blijkt dat er wél machinaal zelfbewustzijn aanwezig is? Het is zeer zeker geen gegeven dat we dan mensenrechten zouden toekennen aan die AI, al is het maar omdat daar juridisch gezien gewoon geen mechanisme voor is.
Als laatste nog even deze van Twitter:
My AI is declared sentient and assigned human rights. I immediately spin up 100,000,000 instances of it and configure them to vote for me “configuring them to vote for me” sounds like a violation of their human rights, hope you’re ready for 100,000,000 criminal cases while they’re all given therapy Say again? I was busy spinning up millions of lawyersArnoud
Informaticus Mike Pound van de universiteit van Nottingham heeft in de meest recente aflevering van het YouTube kanaal Computerphile van Brady Haran uitgelegd waarom er volgens hem geen sprake is van bewustzijn.
Het gebruikte algoritme is goed in het voorspellen welke woorden passen bij een vraag zoals ‘Ben je eenzaam?’. Maar het antwoord ‘Soms, er zijn dagen dat ik met niemand spreek’ pleit niet voor bewustzijn van een AI systeem waarvan de code daadwerkelijk pas wordt uitgevoerd als er ook een vraag wordt gesteld. Maar als je het leest lijkt het te wijzen op bewustzijn.
Er staan op het Computerphile kanaal meer videos over dit soort algoritmes met uitleg hoe ze werken.
Strict genomen kunnen we bewustzijn bij een ander dan onszelf niet waarnemen, dus we nemen puur aan dat het bestaat op grond van een reflectie van onze eigen ervaring. Totdat we beter begrijpen wat bewustzijn precies is, lijkt mij dat de veiligste (of makkelijkste) aanname, al is er natuurlijk geen greintje bewijs. Solipsisme is een nogal anti-sociaal uitgangspunt, lijkt mij.
Hoe dat met machines zit, dat is nog moeilijker te zeggen. De simulariteit is natuurlijk veel lager, en de ethische consequenties zijn nogal ondoorzichtig.
Heb ik wel (zelf-)bewustzijn of is dat slechts een illusie?
Tja… een discussie of iets wel of niet bewustzijn is, is lastig zolang er nog geen algemeen aanvaarde definitie van bewustzijn is. Maar ik denk dat ‘vrije wil’, in de zin van eigen keuzes kunnen maken en de ‘drift tot voortbestaan van de soort’ eigenschappen zijn die je apart kan beschouwen maar toch vaak op één hoop met zelfbewustzijn gegooid worden. Met name die laatste lijkt me onwenselijk om in AI te implementeren… maar dat terzijde. Beide lijken me afhankelijk van reproductie, waarbij de nakomelingen geen exacte kopie zijn van hun ouder. Nature / nurture concept dus. Iets wat door mensen is gemaakt, wordt altijd beperkt door de onderliggende code. Bij een child-AI met aangepaste code (mutaties), zou je op den duur misschien van vrije wil kunnen spreken. De ‘drift tot voortbestaan’ ontstaat vanzelf vanuit het principe van evolutie. De dataset kan je dan vergelijken met opvoeding (nurture), de code met genen (nature). Stop je dat in AI, dan krijg je een soort imitatie van leven, lijkt me. Wat je er vervolgens aan hebt is een tweede….
Ik ben het met je eens hoor, het is “zwakke AI”, geen “sterke AI”; de computer heeft geen begrip van nog de input nog de output. Ik bedoel dit slechts ter aanvulling en overweging. Er is wel een goede reden waarom een eventuele zelfbewuste AI zich op een met het menselijk bewustzijn vergelijkbare manier zou ontwikkelen, en dat is dat wij daarop selecteren. Er is sprake van kunstmatige selectie. Enige tijd terug verscheen er een bericht dat Facebook twee AI’s een tijd lang met elkaar had laten praten, en die twee AI’s hadden een eigen taal ontwikkeld die de onderzoekers niet meer konden begrijpen. Het expiriment is gestopt en de AI’s zijn uit gezet. Wij willen blijkbaar graag praten met die AI’s, en het liefst in het Engels. Dat forceert de AI om zich op een bepaalde wijze te ontwikkelen; alleen die AI’s die dat goed kunnen worden doorontwikkeld. Dat stuurt ze in een specifieke richting, waarin taalvaardigheid belangrijk is. Dit is ook logisch, de bedrijven die het verst zijn met de ontwikkeling willen die AI’s inzetten om bepaalde menselijke taken over te nemen, maar het stuurt die ontwikkeling wel. Misschien moeten we allemaal lojban leren, dat praat voor computers veel makkelijker.
edit: grappig en relevant, de xkcd van vandaag