Nog even terugkomend op dat ‘Afrikaanse’ van machine learning

Onlangs blogde ik over “Afrikaanse” machine learning, wat een leuke discussie opleverde maar ook veel vragen over wanneer je nu een computersysteem “westers” moet noemen. Een computer past geen culturele waarden toe, bijvoorbeeld, die telt 1 en 1 bij elkaar op en dat is gewoon 2. Daar is niets Chinees, Ubuntu of neoliberaals aan. Een reactie van Ronald gaf me aanleiding hier eens verder over na te denken, want het raakt aan een fundamenteel punt rondom de effectiviteit en het nut van AI.

Volgens mij is het “Westerse” versus “Afrikaanse” aspect van een machine learning systeem meer wát je gaat leren en waarvan. Zoals ik Mhlambi begrijp, is het verschil in culturen dat je in de Westerse uitgaat van het individu, en in het Afrikaanse/Ubuntu model uitgaat van de groep. Je verzamelt dan andere data (hoe gedraagt de groep zich, wat wil de groep en hoe reageert de groep) en krijgt daarmee ook een ander model.

Meer algemeen groeit een AI (wat ik zie als een marketingterm voor “machine learning met een menssimulerende interface”) natuurlijk op basis van wat je erin stopt. En dan is dus de keuze van wat je in je dataset stopt de kern. Die keuze is dan cultureel bepaald. En natuurlijk rekent de computer zelf niet cultureel bepaald, het is meer hoe hij is vormgegeven. Een oude ergernis van me: dat computers zo slecht met accenten kunnen omgaan, komt omdat het toetsenbord uit de Amerikaanse cultuur/maatschappij komt waar accenten niet voorkomen. Ik zou dan zeggen dat tekstinvoer Amerikaans-cultureel is bepaald, maar als je liever zegt dat de ontwerpers dat zijn, ook prima.

Goed, een concreter voorbeeld. Stel ik wil de chat in mijn videogame via AI modereren. Die moet ongewenste chatberichten eruit vissen, zodat de kwaliteit van de onderlinge praatjes beter werkt. Ik train dan met spamdatasets want ik weet dat spam heel vervelend is, en gooi er ook racisme in want dat is tegenwoordig ook een ding. Dan krijg je een prachtige moderator – alleen doet die niets tegen seksueel lastigvallen, want ik vond dat geen issue. Heb ik dus geen data van. Vrouwelijke spelers denk ik wel, die zouden wellicht daar eerder op filteren. Of bedenken dat er een dickpic filter op toegezonden beeld moet komen. Dat zijn voor mij echt andere gezichtspunten, niet alleen maar een neutrale selectie van data.

Maar je zou ook kunnen zeggen, de dataset wordt gelabeld langs de lijn “is een teamspeler” versus “speelt individualistisch/doet niet leuk mee” en dan krijg je wéér een heel andere AI. En daarbij zou de aard van het spel en de samenstelling van de deelnemers veel uitmaken. Hebben we jonge Westerse mannen, of juist oudere Australische vrouwen? Gaat het om schieten (dus veel korte en snelle communicatie) of is het een langlopende puzzel hunt met dus veel overleg, discussie, filosofie? Al die dingen wegen mee in hoe je “modereer een chat” invult.

Het gaat dus niet om of de AI iets ‘begrijpt’ maar op welke manier deze functioneert. Welke aannames stop je erin bij het bouwen, welke data neem je mee en welke niet. Vanuit welke filosofie zeg je “dat gegeven is niet relevant” of “ik heb liever dat hij stuurt op A dan op B”. Dát is volgens mij waar het om gaat.

Arnoud

23 reacties

  1. Een ding uit je stuk doet me herinneren aan waar Flavia over geschreven heeft, dit concept van denken in groepen in plaats van individuen. Haar stuk gaat over de ethiek van census data en dat een individu recht heeft op privacy maar een groep niet, en dat stigmatiserende feiten over groepen gebruikt kunnen worden om fout beleid te promoten. Wanneer je neuraal netwerk besluit dat mensen van kleur sneller boos worden omdat de test data hier aanleiding toe gaf omdat veel mensen dit vinden en jouw neuraal netwerk nu dus meedoet met het verder verspreiden van schadelijke stereotype door spelers met een niet nederlandse naam eerder op de regels te wijzen.

    In spite of all the harmful ways in which communal data is currently used, the indisputable right to privacy for individuals is not only not extended to communities but the ethics and practices of record keeping are not granted either. Whereas an individual citizen usually has a right to request all data gathered about them (through local variations of FOIA requests) and, in many instances has the right to request the destruction of records that might harm him or her in the future, data about groups can not only be kept indefinitely but its historical aggregation can be used to further stigmatize the group. Historical records of poverty, employment and education of ethnic groups can be used to further “prove” deeply ingrained stereotypes about them. Racist beliefs are rooted in centuries old historical records, completely removed from the socioeconomic conditions that led to those statistics.

    https://medium.com/this-political-woman/big-data-and-the-ethics-of-community-surveillance-eb8d6e136a88

  2. Bij het bouwen? Ik ben geen AI/ML deskundige, maar het lijkt me toch dat de backbone vrij universeel zal zijn. Welke data neem je mee? Inderdaad, dat is natuurlijk bepalend. Maar is dat fundamenteel anders dan een excel-sheet?

    Ik begrijp niet waarop het een issue is. We hebben het ook niet over een feministische of Afrikaanse spreadsheet, al kan natuurlijk iemand daarin best data op een feministische of Afrikaanse manier verwerken. Waarom moeten we dan een dergelijke aanduiding aan een AI geven?

    Waarom is dit uberhaupt een issue?

    Dit lijkt een beetje op een politiek-culturele disucssie met geweld in een technisch neutrale discussie willen wringen. Controverse zoeken en creeren waar er geen is.

    1. Waarom is het een issue? Omdat we bij AI vaak doen of een computer denkt en beslist (computer says no). Daarbij is het heel belangrijk om te zorgen dat het proces geen vooringenomen standpunten heeft. We moeten dus zorgen, dat we met een zo neutraal mogelijk begin werken. Vergelijk het met mensen, kinderen hebben heel in het begin geen enkele moeite met huidskleur of andere afwijkende kenmerken. Pas door de opvoeding van de ouders en de omgeving ontstaat het. Zouden we die invloeden die dat veroorzaken wegnemen, zouden we mogelijk van discriminatie af kunnen komen. Maar dat soort dingen blijven dromen, dus moeten we in de IT proberen om dit soort problemen te voorkomen.

    2. Het probleem zal hem liggen in de bakken data die je er in stopt waar verborgen cultuur in kan zitten. Als je een AI leert Shakespeare schrijven dan ram je alle werken van er in. Maar heb je die dan allemaal gelezen? Zo niet, weet je dan wat je er in gestopt hebt. “Graze on my lips, and if those hills be dry Stray lower, where the pleasant fountains lie.” Voor je het weet heb jee seksuele voorlichten bot 😉

      Als je een AI voed met 500000 chat berichtjes heb je ze dan allemaal gelezen? Wat voor “cultuur” zit daar dan in?

      1. Franc en Jef,

        natuurlijk hebben jullie gelijk dat als je een AI traint met gekleurde data dat je dan gekleurde uitkomsten krijgt, en dat je dat niet wil.

        Maar dat weet iedereen al lang, dus dat kan de issue niet zijn.

        Ik heb ook de eerdere post van Arnoud gelezen, en begreep toen ook al niet waar all the fuss was about. Zijn AI systemen op zich niet cultureel/sekse/huidskleur neutraal, of zijn ze dat alleen na (ondoordachte) training niet?

        Het tweede is logisch, het eerst zou mij hogelijk verbazen en zou wel degelijk een issue zijn.

        1. Hier sluit ik mij bij aan. Wat er in je data zit, komt er ook uit. Alleen dit is inderdaad helemaal niet specifiek voor AI/machine learning een probleem. Dat speelde ook 100 jaar geleden al toen men data nog met pen en papier doorrekende of iets recenter toen men alle data analyse nog met excel deed.

          Wellicht dat de maatschappelijke impact nu groter is omdat het grootschaliger wordt ingezet, maar een “AI neural net” uit 2020 zal op eenzelfde dataset niet structureel meer bias in de uitkomst hebben dan een regressie analyse in excel uit 1999.

          De discussie moet dus volgens mij zijn welke (delen van) data gebruik je in je analyses, ongeacht welke analyse techniek je vervolgens toepast.

          1. Natuurlijk is het geen nieuwe discussie. Deze is wel veel groter en actueler nu er zó veel met data wordt gedaan en er zó hard wordt gelopen zonder die analyse te maken wat er wel en niet in je data hoort. En we ontdekken nu dingen op het gebied van bias die we vroeger nooit zouden tegenkomen, zoals dat voorbeeld dat een AI in het veld ‘Interesses’ van een sollicitant de term ‘Vrouwen*’ tegenkomt en ze daarom afwijst. Een regressie-analyse in Excel zou niet dergelijke kanten op gaan.

          2. Het verschil is natuurlijk dat bij een pen-en-papier- of Excel-gebaseerde analyse er iemand actief die analyse doet is en min of meer zicht heeft op het proces en de uitkomsten. Bij een AI-systeem is dat juist een stuk minder doorzichtig.

            Als ik ‘handmatig’ een analyse uitvoer en ik concludeer dat mensen met tatoeages die in Maart geboren zijn hun leningen minder goed terugbetalen dan andere groepen, zal ik zeggen “Oei, dat is een vreemd criterium. Dat lijkt me weinig relevant, dat negeer ik maar”, of hoogstens “Nou ja, bij mensen met tatoeages en een geboortedatum in Maart maar even extra goed kijken voor we definitief ja zeggen.”. Ik kan zelfs even in de brondata duiken en bijvoorbeeld zien dat er in die set maar een heel erg klein aantal wanbetalers zat, en dat toevalligerwijs het percentage van mensen met tatoeages geboren in Maart in die groep vrij hoog lag.

            Maak ik gebruik van een AI-systeem, dan heb ik wellicht geen inzage in die gegevens, processen, of criteria die de AI als relevant heeft overwogen – zeker als het gaat om een AI-systeem dat ik kant en klaar en voorgetraind heb aangekocht of geleverd heb gekregen van mijn hoofdkantoor. Dan weet ik enkel dat als ik de gegevens van mijn lening-aanvrager, geboren op 29 Maart en met een anker op zijn arm, erin stop, de AI zegt dat ik die persoon maar beter geen lening kan verstrekken.

        2. Het is inderdaad wat subtiel. Ik denk dat het hem vooral zit in niet zozeer of er bias zit in de data die je hebt gekozen, maar of er bias zit in wélke data je kiest. Het eerste is bijvoorbeeld dat je een kolom ‘Interesses’ toevoegt en dat het systeem dan mensen elimineert die daarin ‘Vrouwen[tennis|voetbal|etc]’ hebben staan. Dat is (onbedoelde) bias naar geslacht.

          Het tweede is dat je dataset een kolom met interesses van individuen bevat, in plaats van de behoeftes van de groep waartoe die individuen behoren. Dat is een Westers gezichtspunt, dat wij kijken naar het individu en zijn interesses. Het Afrikaanse gezichtspunt is dus dat je de groep als de unit beschouwt. Zeg maar net zoals wij de beweging van een persoon vastleggen en niet het linkerbeen los van het rechterbeen.

          Natuurlijk gaat het eigenlijk altijd over de dataset, maar een ML systeem is niets zonder dataset dus ik voel me vrij om die twee te vereenzelvigen. Hooguit kun je nog een discussie voeren of in hoeverre uitsluitend de ratio in een ML systeem wordt geïmplementeerd en niet ook de emotie.

          1. Als je dataset maar gedetailleerd genoeg is (dus bijvoorbeeld wel de bewegingen van het linkerbeen en het rechterbeen apart weergeeft), zal de AI zelf wel besluiten dat er een extreem grote correlatie is tussen beide.

            Zo ook met het (vermeende) Afrikaanse gezichtspunt. Als blijkt dat individuen zeer vaak de groep volgen, dan krijgen overwegingen gebaseerd op het individu vanzelf een laag gewicht in het AI en overwegingen mbt de rest van de groep een groter gewicht.

            En dan komen we weer terug bij het beginpunt: je kunt geen nuttige voorspellingen uit een AI halen gebaseerd op data die bias heeft, of data die belangrijke factoren weglaat.

            Hoe je het ook draait, degene die AI wil implementeren moet zeer kritisch zijn op zijn trainingsdata. Dat is niet een technologie-issue, maar een issue voor technologiegebruiker, en zelfs die issue voor technologiegebruikers is cultuurneutraal.

            Natuurlijk mag die Afrikaanse meneer waarschuwen ‘pas op, want westerse trainingsdata geeft slechte resultaten voor Afrikaanse situaties’. Het antwoord is dan ‘OK, bedankt voor de waarschuwing’

            Zoals het nu gepresenteerd wordt, lees ik tussen de regels door een beschuldiging van neokolonialisme die inherent in AI ingebakken zit, en dat klopt gewoon niet.

            1. Maar dat is dus de verkeerde aanname, want je bent nog steeds individuen aan het bestuderen. Waarom doe je dat, waarom kijk je naar de benen apart? Dan blijf je ergens toch conclusies over individuen trekken, bijvoorbeeld “dit individu ligt niet zo lekker in de groep”. Een conclusie kan dan zijn dat dit individu meer aandacht nodig heeft, maar ook (en de vraag is of je dat dan ziet) of de gróep meer nodig heeft. Dit laatste gaat dan mis omdat je bent gaan modelleren hoe individuen zich gedragen, hoe benen lopen. Terwijl het gaat over hoe de groep functioneert, hoe mensen lopen.

              Dit heeft met kolonialisme niets te maken. Als je een SJW label wil dan is het insensitiviteit naar ander culturen, “overal staat het individu centraal”.

              1. Nee, ik ben geen individuen aan het bestuderen.

                Het getrainde AI dient om voorspellingen te maken die de eindgebruiker graag wil hebben. Dat kan over individuen gaan, of over groepen, of hele regio’s, dat maakt niet uit.

                De eindgebruiker, via zijn aankoopketen, zal moeten zorgen dat de trainingsdata correct zijn voor het doel dat het wenst. Is dat voor Europa of Afrika, is dat voor individueel gedrag (lening terugbetalen) of groepsgedrag (verkiezingsuitslag)?

                En het kan best zijn dat de eindgebruiker iets wil weten over een individu. Het is zijn verantwoordelijkheid om dan te beseffen dat dat in een Afrikaanse context (blijkbaar, ik weet het niet, maar dat is de randvoorwaarde waaronder we discussieren) niet heel zinvol is, maar prima, als hij het toch perse wil, zijn keuze, zijn risico op foute voorspellingen.

                En het is zijn verantwoordelijkheid als hij de beperkingen beseft maar toch nog steeds naar het individu wil kijken, dat de trainingsdata voldoende groepsgerelateerde aspecten bevatten.

                Natuurlijk moet je dan de structuur van die trainingsdata ook laten opstellen door iemand die veel gevoel heeft voor die cultuur (en die dus wel relatief betrouwbaar kan bepalen, in jouw voorbeeld, of het individu, danwel de groep, meer aandacht nodig heeft), maar dat is sowieso een conditio sine quai non als je goede trainingsdata wilt samenstellen.

                Maar misschien ben ik simpelweg te dom voor dit soort diepe filosofieen, en snap ik het daarom niet.

                1. Waar het om gaat, is dat je niet zonder verder nadenken je in Europa of de VS ontwikkelde AI-model (dus software met getrainde dataset) loslaat in Afrika, omdat daar de culturele opvattingen anders zijn en jij dat niet ingeprogrammeerd hebt. Dan zal je model het dus slechter doen, omdat de uitkomsten niet aansluiten bij hoe men daar leeft en werkt. En mogelijk wordt het model als leidend ingezet, zodat je mensen dwingt hun gedrag aan te passen conform dus de Europese of Amerikaanse cultuur. Dat is raar.

                  Ter vergelijking: je ziet nu veel dat er thuiswerkmonitoringsoftware wordt ingezet door werkgevers. Die software komt uit de VS, waar onder meer de culturele opvatting is dat je op je werk nul privacy hebt en van half negen tot vijf productief moet zijn behalve in je lunchpauze. De baas mag dus alles, inclusief iedere toetsaanslag meten en de camera continu aan laten staan. Dat is niet de Europese werkcultuur; privacy geldt ook op je werk en een werkgever behoort niet ieder moment jou te controleren en te volgen. Dergelijke software uit de VS past dus niet bij onze cultuur.

                  Er zit ook AI in dergelijke software. Die scant dan de camerabeelden en bepaalt of jij productief bezig bent. Dat is getraind op Amerikaanse proefpersonen en de analyse zal dus ook Amerikaans zijn. Even op je telefoon wat tegen je vrouw zeggen: niet productief, minpunt. Even achterover zitten: niet productief, minpunt. Langer dan 3 minuten naar de wc? Vijf minpunten, dat doe je maar vóór het werk. WhatsApp Desktop open buiten de lunchpauze? Minpunt per minuut. Dus die AI deelt dan ook hier minpunten uit voor dergelijk gedrag, terwijl veel Europese werkplekken echt prima functioneren terwijl mensen zulke dingen doen. Dat is dus wanneer ik zeg: die AI sluit niet aan bij de cultuur.

                  Ben je het daar mee eens?

                      1. Maar het gaat niet om een verwijt aan gebruiker of maker. Het gaat erom of het AI systeem zelf ‘verkeerd’ is, of dat het mogelijks verkeerd wordt ingezet (wie daar dan ook verantwoordelijk voor mag zijn).

                        1. Dat voelt voor mij als twee manieren om hetzelfde te zeggen. De maker maakt het AI systeem en schiet tekort in een ontwerpbeslissing. De gebruiker zet het systeem in en vaart blind op diezelfde tekortkoming. Dan vind ik dat je mag zeggen “het AI systeem schiet te kort” in plaats van “maker en gebruiker zijn tekort geschoten bij hun wijze van implementatie van een verder technisch correct functionerend AI systeem”.

                          1. Het verschil is hetzelfde verschil als het verschil tussen een schroevendraaier van slechte kwaliteit die juist wordt ingezet en een schroevendraaier van goede kwaliteit die als hamer gebruikt wordt.

                            Iedereen weet dat kwaliteit/volledigheid, op veel gebieden en in vele dimensies, van trainingsdata cruciaal is. Cultureel verschil tussen Afrika en America (maar net zo goed tussen Limburg en Friesland) is een van de vele, vele, vele aspecten waarmee je daarbij rekening moet houden, maar ook niet meer dan dat.

                            Het culturele verschil tussen Amerika en Afrika is, in het hele verhaal van kwaliteit van trainingsdata, gewoon een van de duizenden dingen waar men attent op moet zijn. Op zich niets bijzonders, in elk geval niet iets wat zodanig onverwacht of belangrijk is dat het verdient om het onderwerp te zijn van twee (!) blogpostings.

  3. Dit is m.i. inderdaad niet iets speciaal dat voor AI. Of een Excelsheet, een CBS-statistiek, een flipover na een brainstormsessie, of ook een uitspraak bij een rechtbank? Het is van alle tijden: bullsht in bullsht out, je krijt antwoord op de vraag die je stelt en de input die je levert, etc.

    Verschil bij big data en bij AI is misschien meer dat men “blind” uitgaat van de resultaten zonder de achterkant te snappen. Op die flipover (*) zie je tenminste nog in een hoekje wat leesbare aannames en uitzonderingen staan. Probleem is dan meer dat AI wordt gebruikt als 1-op-1 zonder na te denken op te volgen beslistool. Iets dat je ook bij Excel (of ‘zelfs’ het adviesrapport van een extern deskundige, of het advies van TomTom die een bias heeft voor auto’s die niet heel breed of hoog zijn) niet altijd wilt.

    (*) oude vorm van een groot touch screen.

  4. Mooie stof tot nadenken, klasse artikelen Arnoud (en ook Ronald) !

    Wel wil ik even nitpicken over de gebruikte terminologie want ik lees zinnen als ““Artificial Intelligence” slaat historisch slechts op de klasse algoritmes, nl. die op de functionele werking van neuronen gebaseerd zijn” en dan krijg ik wel jeuk hoor.

    Van oudsher is AI eigenlijk alles waarvan mensen verbaasd zijn dat computers het zo goed kunnen, en niet zo zeer machine learning toepassingen, laat staan neurale netwerken.

    In de 18e eeuw was dat de mechanical Turk, in de jaren 60 was dat ELIZA, in de jaren 80 een schaakcomputertje of een Powerpoint die “vanzelf” de volgende bullet neerzette. De definitie schuift dus ook steeds op, naar de dingen die nieuw en verbazingwekkend zijn.

    Een subset van alle AI toepassingen zijn Machine Learning toepassingen, waarbij een algoritme beter gaat performen naarmate het meer wordt getraind. Die heb je in “supervised” en “unsupervised” varianten. Een subset van de supervised machine learning technologieen zijn neurale netwerken, en een subset dáárvan zijn meerlaags neurale netwerken die met “deep learning” worden aangeduid.

    De voorbeelden van AI die je noemt en die we vaak horen zoals chatbots, zijn vaak relatief statische NLP toepassingen, die niet eens in de “machine learning” klasse vallen.


    Inhoudelijk (voor de lezers die nog niet zijn afgehaakt 😉 : ik denk niet dat de data de kern is zoals je stelt, maar hoe de data wordt gemodelleerd en nog belangrijker: gelabeld. Als die van een of enkele personen afhankelijk is dan kan je spreken over een culturele bias maar eigenlijk komt het er gewoon op neer dat de groep mensen die data labelt een niet representatieve steekproef is op de daadwerkelijke doelgroep. Daar kunnen we dan wel een hoop poeha over cultuur aanhangen maar eigenlijk is het gewoon vanuit een statistisch oogpunt gezien niet ok.

    Door mensen feedback te laten geven (“ik vond deze chat niet prettig want hij was seksistisch”) kan je die labeling verbeteren.

    En dan gaat het niet over het individu of over de groep. Dan gaat het over de groep individuen!

  5. Ik zou bijna willen stellen dat we een AI moeten ontwikkelen die bepaalt of een dataset relevant is of niet. Maar de AI moet dat weer halen uit de datasets. Je zou dan een dataset willen hebben van alles en iedereen en dat is boel veel data…

    Maar dan punt twee: voor wie is die data uiteindelijk relevant. En is die uitkomst wel correct? Want de site Spurious Correlations staat vol met voorbeelden die de consumptie van Margarine koppelt aan het aantal echtscheidingen in Maine, USA. De AI kan denken dat die relatie er is, mits de dataset maar groot genoeg is…

    En dan heb je het uiteindelijk weer over hoe relevant data kan zijn. Het zal toch ergens naartoe aangestuurd moeten worden. Kan AI wel bepalen wat wel en niet relevant is?

  6. Het gros van de AI’s in deze wereld vervult optimalisatieproblemen die geheel wars zijn van welke cultuur dan ook; een MLalgo voor vervormende spiegels in een lithografie machine, een antialiasing MLalgo, een MLalgo om bandbreedte te verdelen tussen telefoons aan masten; dit is pure harde koude statistische logica op een ongelooflijke schaal. AI/ML blijft dan ook een stuk gereedschap. Daar valt an sich weinig regelgeving of culturele zingeving in te vinden denk ik.

    Je kunt dan toch ook slechts zeggen dat bijv. Facebook “Amerikaans” is? Dat Weibu “Chinees” is? Zij maken de platforms gestoeld op waardes uit hun eigen samenleving, wat de inzet van het gereedschap beïnvloedt. Zij zijn het die je in platform en gedrag aan kunt spreken op welke culturele waarden zij (uit)dragen, beter dan de individuele hamer uit de koffer van team image-recognition of team frontpage-selection.

    Van wat ik lees is Mhlambi bepaald niet technisch onderlegd. Zijn constateringen lijken dan ook meer gericht aan de overmacht van de vooral Amerikaanse bedrijven wat lokale initiatieven verstikt. Er ís bijv. geen “Ubuntu” alternatief voor Facebook (meer), het kan er ook bijna niet meer komen, en de toegepaste AI/ML is daar een belangrijk onderdeel van. Dat zijn dus zeker “Westerse” AI’s, want jazelfs hele “westerse” platformen.

    Tenslotte zit ik nog te denken dat de AI/ML algoritmes misschien ‘westers’ genoemd kunnen worden juist omdat ze veelal zonder restricties worden gemaakt. Veel van de voorbeelden en maatregelen die Mhlambi en anderen in deze context noemen, komen neer op extra controle, extra menselijk ingrijpen, extra capaciteit en manuren etc. Zo kun je stellen dat westers kapitalistisch liberalisme mogelijk ook de pragmatischerwijs de goedkoopste culturele identiteit voor een AI is.

Geef een reactie

Handige HTML: <a href=""> voor hyperlinks, <blockquote> om te citeren, <UL>/<OL> voor lijsten, en <em> en <strong> voor italics en vet.