Airbnb gaat op zoek naar psychopaten onder klanten die kunstmatige intelligentie gebruiken

Airbnb zegt dat het een nieuw slim klantenbeoordelingssysteem zal gebruiken om mogelijk ongewenste personen uit de wereld te helpen. Deze omvatten zowel mensen met duidelijke psychische handicaps als degenen die de kwaliteiten van narcisme of machiavellisme vertonen. Dit zorgt ervoor dat verhuurders veilig en beschermd zijn tegen onnodige risico's.

De analyse van klanten is gebaseerd op de kunstmatige intelligentie-tool Trooly, die Airbnb in 2017 teruggekocht heeft. Welke upgrades zijn uitgevoerd, welke algoritmen gebruikt AI, wat zijn de selectiecriteria - dit is allemaal geheime informatie. Op de officiële website staat dat het systeem "honderden signalen" verwerkt, zoals gegevens over veroordelingen uit het verleden, boetes voor verkeersovertredingen, provocerende publicaties op sociale netwerken.

Het is moeilijk te zeggen hoe effectief een dergelijk mechanisme zal zijn om het gedrag van nieuwe klanten te voorspellen. Maar voor Airbnb is de vraag anders: de service probeert al jaren het probleem van schade aan accommodatie door gasten tot een minimum te beperken, en daarom zijn alle middelen om het probleem op te lossen goed. Soms is het beter om op zeker te spelen en simpelweg een verdachte kandidaat te weigeren dan de gevolgen van een fout later op te vangen.