Mensen leven steeds meer in een
"gemachineerde" werkelijkheid. Om een auto op de weg te houden, moet
de bestuurder worden geassimileerd in de fysica van de auto en het systeem waar
het onderdeel van is. De mens kan accommoderen. Elke nieuwe technische
toepassing is kritisch afhankelijk van of de gebruikers er mee kunnen leren werken.
Als het te veel aanpassing in een keer vereist, lukt het niet. Echter,
technologie wordt meer en meer voorzien van eigen accommodatievermogen. Google
"ziet" bijvoorbeeld wat ik interessant vind, en past daar de
advertenties op aan, met als gevolg dat ik in mijn eigen informatiebulb leef.
Maar het blijft toch de mens die een meester in aanpassen is. Tablets,
voortdurend bereikbaar zijn via Facebook, het kan en dus past de mens zich aan.
Wat is de prijs? Moet de technologie wel slimmer worden (aanpassen aan
individuele behoeftes, bv door patroonherkenning/bigdata), of moeten we
technologie inzetten om de mens slimmer te maken?
Algoritmes zijn in staat vanuit jouw klik- en
kijkgedrag (de digitale kruimels die je op internet achterlaat) jouw voorkeuren
en allergieën af te leiden en deze vervolgens te koppelen aan meer algemene
patronen/segmenten, die ik eerder "eilandjes in de datazee" noemde. Op grond
hiervan krijg je aan jouw voorkeuren aangepaste berichten te zien, of word je
aan mensen "gekoppeld" die voor jou mogelijk interessant zijn.
Hierdoor kan je je sneller ontwikkelen in de richting van je interesse. Voor adverteerders
is dit interessant, want zo kan er veel gerichter worden geadverteerd (als
gitaarliefhebber krijg ik telkens gitaren voorgeschoteld). De door mij gebouwde
algoritmes werken precies zo. Het algoritme is feitelijk niet intelligent, maar
construeert matrixen en zoekt daarin vervolgens naar samenhangen, onder meer
door data te segmenteren. Zo kan een steeds preciezere inschatting worden
gemaakt van jouw eigenschappen (je blijft nl digitale kruimels achtergelaten).
Van het segment (eiland) waarop jij je bevindt met betrekking tot een bepaald
criterium, zijn de statistieken (gemiddelden, verdelingen etc) bekend. Diverse
eigenschappen worden "bepaald", waaronder jouw intelligentie, je
politieke voorkeur, je seksuele voorkeuren, diverse persoonlijkheidskenmerken,
etc. Natuurlijk door jouw "kruimels" met diverse "eilanden"
te vergelijken. De adverteerder zoekt naar die eigenschappen die voor zijn
product van belang zijn.
Met mijn team (Saxion lectoraat Brain &
Technology) maken wij dit soort algoritmes met als doel verschillende leer- of
werkstijlen te kunnen bepalen, zodat daar door professionals rekening mee
gehouden kan worden, bv bij educatie en de inrichting van de werkplek. Kinderen
en volwassenen met autisme, bijvoorbeeld, leren anders dan neurotypische
mensen. Als daar goed rekening mee wordt gehouden, hoeft autisme niet een
succesvol en/of gelukkig leven in de weg te staan (in een latere blog kom ik
hier op terug). Echter de data die wij "mogen" gebruiken, is zeer
beperkt en veel onderzoek als dat van ons is nauw aan medisch ethische
commissies gekoppeld. Dat is opmerkelijk. Waarom?
Commerciële partijen als Google en Facebook mogen elk
klein spoortje gebruiken, zelfs de typefoutjes die uitgewist worden. Hun doelen
zijn niet zuiver eerzaam (verkopen), terwijl onbedoeld mensen door de
interveniërende algoritmes en matrixen zonder het te weten in een
informatiebulb terecht komen. Iemand met bijvoorbeeld meer conservatieve
politieke voorkeuren, leeft in een hele andere Facebook/internet omgeving, dan
iemand die progressieve voorkeuren heeft. Of een homoseksueel in een andere
omgeving dan een heteroseksueel. De algoritmes selecteren wat jij te zien
krijgt. Het is heel goed mogelijk dat je daarmee steeds beter bij een
specifieke "configuratie van segmenten" gaat passen en dat jouw
ontwikkeling zo onbedoeld in een bepaalde richting wordt gedirigeerd. In het
ergste geval kan dit leiden tot een enorm verdeelde wereld, vol conflict,
waarin je continu je eigen (voor)oordelen bevestigd ziet! Een gemachineerde kokervisie!
Continu en steeds sterker. En niemand lijkt zich hier druk over te maken. Maar
het inzetten van deze technieken om de diagnostiek in psychotherapie, educatie
of werk te versterken door gepersonaliseerd te kijken, stuit op zeer veel
weerstand. Terwijl daarbij leraren, psychologen, psychiaters, therapeuten,
arbeidsdeskundige en jobcoaches de data gebruiken in voortdurende samenspraak
met de cliënt. In co-makership.
In het kort, slimme technologie met ingebouwd
aanpassingsvermogen, biedt grote mogelijkheden, maar minstens even grote
gevaren. Het is opmerkelijk dat digitale (algoritmische) surveillance en
beïnvloeding op grote schaal vrijwel zonder voorbehoud wordt toegepast, terwijl
het bijna onmogelijk is om vergelijkbare technieken in de context van onderwijs
en gezondheidszorg met professionals te ontwikkelen en onderzoeken. Nogmaals,
een beperking van slimme technologie is dat ze ontwikkeling kan beïnvloeden of
zelfs verstoren. Als Netflix op grond van mijn kijkgedrag mij door suggesties
helpt te kiezen uit het oneindige aanbod, kan ik nooit meer buiten mijn eigen
kaders ontwikkelen. Als ik alleen heb leren genieten van BZN, kom ik zo nooit
tot Peter Schat, of Louis Andriesen. Smart technologie kan mensen helpen in hun
ontwikkeling, in het bereiken van hun utopie. Maar als we niet uitkijken, doet
ze juist het omgekeerde: ontwikkeling beperken!
Geen opmerkingen:
Een reactie posten