De Canadese luchtvaartmaatschappij Air Canada moet een passagier zijn geld terugbetalen nadat een chatbot hem verkeerd had geïnformeerd. Dat meldde RTL Nieuws vorige week. Het opmerkelijke verweer op de klacht was dat de chatbot een ‘aparte juridische entiteit’ zou zijn, ‘verantwoordelijk voor zijn eigen acties’. Wacht, wat?
De kern was een klacht over het willen gebruiken van het ‘rouwtarief’, een bereavement flight. Dit concept komt erop neer dat je voor een vlucht naar een uitvaart een goedkoper lastminute ticket kunt krijgen. Het bestaat nauwelijks meer, maar Air Canada had dat in 2022 nog wel:
In November 2022, following the death of their grandmother, Jake Moffatt booked a flight with Air Canada. While researching flights, Mr. Moffat used a chatbot on Air Canada’s website. The chatbot suggested Mr. Moffatt could apply for bereavement fares retroactively. Mr. Moffatt later learned from Air Canada employees that Air Canada did not permit retroactive applications.Het probleem was dus dat de chatbot zei dat je dat rouwtarief met terugwerkende kracht kon claimen op een al geboekt ticket. In die uitspraak zat een link naar de “Bereavement policy” van Air Canada, waar dan weer in staat dat je alleen recht hebt op dat tarief als je er vooraf om vraagt.
Zowel in Nederland als in Canada is het zo dat als een medewerker van een bedrijf een duidelijke toezegging doet, je daar als klant in principe op mag vertrouwen. Uitzonderingen kunnen altijd, met name als jij moet weten dat die medewerker zoiets niet mag toezeggen.
Air Canada gooide het over een iets andere boeg:
Air Canada argues it cannot be held liable for information provided by one of its agents, servants, or representatives – including a chatbot. It does not explain why it believes that is the case. In effect, Air Canada suggests the chatbot is a separate legal entity that is responsible for its own actions. This is a remarkable submission. While a chatbot has an interactive component, it is still just a part of Air Canada’s website. It should be obvious to Air Canada that it is responsible for all the information on its website. It makes no difference whether the information comes from a static page or a chatbot.De uitspraak gaat hier wat snel van “cannot be held liable” naar “is a separate legal entity”, maar de kern is duidelijk: Air Canada vond dat zij niet gehouden kon worden aan de toezegging van de chatbot. Je had de ‘echte’ bron maar moeten controleren.
Het tribunaal gaat daar niet in mee. Hoe zou een consument moeten weten dat de ene informatiebron betrouwbaarder is dan de andere? Air Canada zet ze beiden op haar site, dus moet ze de gevolgen daarvan dragen. Je kunt niet verwachten dat mensen alles dubbelchecken. Ook een beroep op de algemene voorwaarden bij het ticket wordt afgewezen, hoewel met het argument dat Air Canada die voorwaarden niet had overlegd in de procedure.
Ik lees de uitspraak dus niet als een discussie over het “aparte juridische entiteit” zijn van de chatbot. Waar het om gaat, is waar de consument staat als bron A zegt dat iets wel mag en bron B dat dat niet mag. Dan geldt dus wat de bron zegt waar de consument op afgegaan is, omdat je bij een duidelijke toezegging deze niet hoeft te dubbelchecken. Het roept de filosofische vraag op of de klager recht zou hebben op een gedeeltelijke teruggaaf als hij achteraf de chatbot had geraadpleegd, na eerst een duur ticket te hebben gekocht omdat de Bereavement Policy dat zei.
De rechter benoemt nadrukkelijk dat hij geen verschil ziet tussen een statische webpagina en een chatbot. Ik zie dat zelf anders: de indruk die je wekt met een chatbot is ergens toch serieuzer, specifieker. Een webpagina zegt hoe het in het algemeen is. Een chatbot helpt jou met jouw probleem, je hebt jouw specifieke feiten genoemd en je vraagt een advies over jouw situatie. Dan komt daar iets uit dat voor jou opgaat, en dat zou best anders kunnen zijn dan de algemene regel.
Ik ben een beetje bezorgd dat uitspraken als deze ertoe gaan leiden dat chatbots ieder gesprek openen met een disclaimer dat je alles moet dubbelchecken dat ze zeggen, en dat ze geen bindende toezeggingen kunnen doen.
Arnoud
Zou dat Air Canada geholpen hebben in deze? Als er bij de chatbot staat dat je alles wat ‘ie zegt moet dubbelchecken, zou de rechter dan gezegd hebben “meneer had het moeten weten? Zou een bedrijf dan ook bij de “reguliere” vlees-en-bloed klantenservice hetzelfde kunnen doen, zodat als een medewerker een vergissing maakt, het bedrijf het alsnog niet na hoeft te komen?
Goed punt. Nee ik denk niet dat het had geholpen. Maar de reflex om er een disclaimer boven te proppen staat los van de effectiviteit als het naar de rechter gaat. Ik wijs op de vele, vele “directie is niet aansprakelijk” bordjes die sinds jaar en dag (oudste vindplaats 1814) overal hangen zonder enige rechtsgeldigheid.
Air Canada zou hun chatbot kunnen limiteren tot het geven van links naar (of letterlijke quotes van) pagina’s op de website, het opzoeken van vluchtgegevens en het verwijzen naar de menselijke helpdesk.
Op die manier voorkom je foute “creative” antwoorden van de chatbot. Als ik vraag of ik een rolstoel aan boord mag meenemen en ik krijg een quote van de regels dat zegt: “Ja, je mag je hulphond meenemen aan boord.”, dan weet ik dat de “Ja” niet op mijn rolstoel slaat.
Als het hier om een LLM chat-bot gaat is het nogal lastig die helemaal dicht te timmeren zonder dat dat tot een chat-bot leid die helemaal nergens meer een antwoord op geeft, het nut van de chatbot is dan 0.
Aangezien het nut van een chatbot die foutieve antwoorden geeft kleiner dan 0 is, zou dat een vooruitgang zijn.