Det är en domstol för småmål i den kanadensiska provinsen British Columbia som ger målsägande Jake Moffatt rätt.
Incidenten inträffade i november 2022, då Moffatt bokade en flygbiljett via Air Canadas hemsida efter att en nära släkting avlidit. Hemsidans chatbot föreslog för Moffatt att han kunde köpa en biljett för reguljärpris och i efterhand ansöka om rabatterat pris med anledning av dödsfall.
Först senare fick Moffatt veta att flygbolaget inte har någon sådan policy. Han stämde då Air Canada för att få det reguljära priset återbetalat. Air Canada å sin sida menade att flygbolaget inte kan hållas ansvarigt om en chatbot delar felaktig information.
Det menar nu domstolen att flybolaget visst kan, och ska.
Enligt domaren har inte Air Canada på rimligt vis vidtagit åtgärder för att se till att chatboten är korrekt. I domen går att läsa, att flygbolaget hävdar att chatboten är en separat juridisk enhet som är ansvarig för sin egna handlingar – något domstolen anser anmärkningsvärt då det förvisso är en interaktiv komponent, men likväl en del av flygbolagets hemsida. ”Det borde vara uppenbart för Air Canada att [bolaget] är ansvarigt för all information på sin webbplats. Det spelar ingen roll om informationen kommer från en statisk sida [med allmänna villkor] eller en chatbot.”
Incidenten är ett exempel på hur hetsen att implementera generativ AI ibland går fortare än sakförhållandena är redo för. För allt vad det verkar har chatboten saxat information från de allmänna villkoren, men däremot inte ”förstått” hur olika omständigheter de facto hänger ihop och påverkar förbehållen. I Air Canadas fall innebär det att 812 dollar måste betalas tillbaka till kunden. Småsummor för ett stort flygbolag, men det blir intressant att se hur utvecklingen går om liknande problem fortsätter uppstå.