Jumbo gaat met AI bewijslast verdenking winkeldiefstal omdraaien

JumboOp 22 januari 2024 schreef ik  een artikel over het niet mogen omdraaien van de bewijslast in ons rechtssysteem. Recente berichtgeving door de supermarktketen Jumbo vormt de reden om wederom te focussen op dit principe. In Jumbo-supermarkten vindt zoveel diefstal(niet afgerekende producten) plaats dat men begin januari in de pers kenbaar maakte dat het een bedrag van 100 miljoen euro per jaar betreft. Dat is één procent van de omzet. Jumbo publiceerde op 7 februari 2024 een persbericht. Daarin zegt men een proef van drie maanden te gaan doen met camera’s in de supermarkten om met speciale “ Artificial Intelligence(AI) software, “afwijkend” gedrag van klanten op te kunnen herkennen. Zolang de klant niet afgerekend heeft is er echter geen sprake van een delict. Door afwijkend gedrag voor de kassa te willen opsporen draait Jumbo de bewijslast om. De klant moet gaan uitleggen dat hij/zij nog niets wederrechtelijk deed.

Privacyverklaring

In de privacyverklaring van Jumbostaat hoe men wil handelen met die camerabeelden.

“ Wanneer Jumbo gebruikmaakt van slimme camera’s, wordt op basis van beweging een inschatting gemaakt of door een mens een product in een jas of tas wordt geplaatst. De slimme camera’s zijn niet ontworpen om specifieke mensen te herkennen of templates te creëren van gezichten, lichaamshoudingen of tred. Er is geen sprake van verwerking van biometrische gegevens. De camera’s kunnen bepaalde gedragingen signaleren zoals het snel pakken van verschillende producten op een rij of wanneer beide handen in het schap worden geplaatst. Deze gedragingen leiden alleen tot een melding aan de Jumbo-medewerker indien er een verhulling van een product op volgt. De Jumbo-medewerker die een melding van de slimme camera ontvangt (bijvoorbeeld “er is 85% kans dat een mens een product in een rugtas heeft gestopt”) ontvangt een clip van de videobeelden en bepaalt vervolgens de vervolgactie, bijvoorbeeld of hij de persoon aanspreekt met de vraag of hij de tas kan openen, vergelijkbaar met hoe met andere camerabeelden wordt omgegaan.“

Klanten profileren met AI

Met het toepassen van AI in de supermarkten vindt een vorm van profilering plaats. Men maakt met AI-software profielen van mensen die een gedrag vertonen dat op het gaan plegen van diefstal kan wijzen. Men doelt daarbij op het plaatsen van artikelen in eigen kleding/tas en niet in winkelwagen/-mand te plaatsen.

Het op basis daarvan staande houden van mensen in de winkel alvorens de klant afrekent maakt dat de klant moet gaan uitleggen waarom die zo handelde. Het kan heel goed zijn dat daarbij totaal geen sprake is van de intentie van diefstal., bijv. het plaatsen van diepvriesartikelen in een aparte tas, bijv. een isoleertas. Voor het afrekenen is het staande houden van klanten sowieso een probleem omdat er dan nog geen sprake is van diefstal. Het moeten gaan uitleggen van de handelingsintentie door de klant is dan op dat moment het omdraaien van de bewijslast

Verleggen van het probleem

Wat Jumbo nu doet, is het verleggen van het probleem richting de klant. Jumbo is zelf de probleemhouder. Immers, Jumbo maakt duidelijk dat een aanzienlijk deel van de diefstal komt door het gebruik van zelfscankassa’s. Daarnaast geeft Jumbo bij deze kassa de klant de keuze voor een lange bon met alle producten erop of een korte met alleen het betaalbewijs plus een streepjescode om het uitgangshekje te activeren. Met die korte bon kan men geen directe controle uitvoeren op de rechtmatige aanschaf van artikelen. De zelfscankassa’s voerde men in om te bezuinigen op personeelskosten. Nu gaat men veelal jonge winkelmedewerkers klanten laten benaderen op basis van geautomatiseerde meldingen. Het is te voorspellen dat het één en ander tot vervelende reacties van klanten gaat leiden. Zoals ik al eerder schreef is er pas sprake van het wederrechtelijk meenemen van een artikel als er niet afgerekend is bij de kassa.

DPIA

Op de website Tweakers.net staat in een artikel over dit onderwerp dat Jumbo een Data Protection Impact Assessment (DPIA) gedaan heeft om zeker te zijn dat de privacy niet (onevenredig) geschaad zou worden. Als ondanks het maken van een DPIA toch de AI-software wil gaan invoeren heeft men beslist onvoldoende alle risico’s van dit handelen in kaart gebracht. Het zeggen dat een DPIA gedaan vormt op die manier een doekje voor het bloeden. Jumbo zegt ook dat de software ook niet bedoeld en ingezet wordt om bepaald personen te herkennen. De vraag is echter hoe dat te controleren valt.

Vals-positieven en vals negatieven

Inherent aan het gebruik van AI-software bij dit soort toepassingen zijn de vals-positieven en vals negatieven. Jumbo zegt zelf dat de software een bepaald kans-percentage aangeeft dat de klant iets in een rugzak o.i.d. stopte. Dat betekent dat er een aantal mensen ten onrechte aangesproken zullen  worden op afwijkend c.q. vermeend aanstaand crimineel gedrag maar ook dat een aantal mensen er tussendoor fietsen en niet opgemerkt zullen worden.

Persoonlijk zou ik het zeer beledigend vinden als een winkelmedewerker mij komt zeggen dat ik mogelijk iets wederrechtelijks aan het doen ben zonder dat zoiets plaats vindt. Het zou dan meteen een reden vormen om voortaan niet meer naar de Jumbo te gaan.

W.J. Jongejan, 12 februari 2024

Afbeelding van Gerd Altmann via Pixabay